Yolo Vision Shenzhen
Шэньчжэнь
Присоединиться сейчас
Глоссарий

Эволюционные алгоритмы

Узнайте, как эволюционные алгоритмы оптимизируют решения ИИ и ML, от настройки гиперпараметров до робототехники, используя стратегии, вдохновленные природой.

Эволюционные алгоритмы (ЭА) представляют собой надежный класс искусственного интеллекта (ИИ) основанный на биологических принципах естественного отбора и генетики. В отличие от традиционных математических методов, основанных на вычислении производных, эти алгоритмы моделируют процесс эволюции для решения сложных оптимизационных задач. Поддерживая популяции потенциальных решений, которые конкурируют, размножаются и мутируют, советники могут перемещаться по обширным, изрезанным пространствам поиска. где "лучший" ответ неизвестен или не может быть получен аналитически. Это делает их особенно ценными в машинном обучении (ML) для задач от автоматизированного проектирования моделей до составления сложных расписаний.

Основные механизмы эволюции

Функциональность эволюционного алгоритма отражает концепцию выживания сильнейшего. Процесс итеративно уточняет набор решений-кандидатов через цикл биологических операторов:

  1. Инициализация: Система генерирует случайную популяцию потенциальных решений задачи.
  2. Оценка пригодности: Каждый кандидат проверяется на соответствие определенной функции пригодности. В компьютерном зрении (КВ) эта функция часто измеряет точность модели или среднюю точность mAP).
  3. Отбор: Кандидаты с более высокими показателями пригодности отбираются в качестве родителей для следующего поколения. поколения.
  4. Воспроизводство и вариации: Новые решения создаются с помощью кроссинговера (комбинирование признаков от двух родителей) и мутации (внесение случайных изменений). Мутация очень важна, поскольку она вносит генетическое разнообразие, предотвращая застревание алгоритма в локальном оптимуме вместо поиска глобального оптимума.

Приложения реального мира в искусственном интеллекте

Эволюционные алгоритмы - это универсальные инструменты, используемые в различных областях с высокой степенью воздействия для повышения производительности систем:

  • Настройка гиперпараметров: Один Одним из наиболее распространенных приложений в глубокого обучения (ГОО) является оптимизация обучающих конфигураций. Вместо того чтобы вручную подбирать значения для скорости обучения, импульса или затухания веса, эксперт может разработать набор гиперпараметров, которые максимизируют производительность модели. Сайт Ultralytics YOLO11 включает в себя генетический алгоритм для автоматизации этого процесса.
  • Поиск нейронной архитектуры (NAS): Советники автоматизируют проектирование нейронных сетей. Рассматривая структуру сети структуру (слои, связи) как генетический код, алгоритм может разрабатывать высокоэффективные архитектуры, подходящие для для краевых устройств ИИ, где вычислительные ресурсы ограничены.
  • Робототехника и управление: В ИИ в робототехнике, советники разрабатывают политики управления и походки. Это позволяет автономным роботам научиться ориентироваться в динамичных средах, моделируя поколений стратегий движения.
  • Оптимизация окружающей среды: В таких секторах, как ИИ в сельском хозяйстве, советники помогают оптимизировать распределение ресурсов распределение ресурсов, например, график орошения или размещение культур, для максимизации урожая и минимизации отходов.

Автоматизация оптимизации с помощью Python

Практики могут использовать эволюционные алгоритмы непосредственно в ultralytics пакет для поиска оптимальную конфигурацию обучения для обнаружение объектов модели. The tune Метод использует генетический алгоритм для мутации гиперпараметров в течение нескольких поколений.

from ultralytics import YOLO

# Load a standard YOLO11 model
model = YOLO("yolo11n.pt")

# Run hyperparameter tuning using a genetic algorithm approach
# The tuner evolves parameters like lr0, momentum, and weight_decay
# 'iterations' defines how many evolutionary generations to run
model.tune(data="coco8.yaml", epochs=10, iterations=30, optimizer="AdamW", plots=False)

Различение смежных понятий

Чтобы эффективно применять эти методы, необходимо отличать эволюционные алгоритмы от других стратегий оптимизации и обучения. и стратегий обучения:

  • Vs. Стохастический градиентный спуск (SGD): Стандартные методы обучения, такие как Стохастический градиентный спуск (SGD) основаны на вычислении производной функции потерь для обновления весов. Советники без градиента, что означает, что они могут оптимизировать недифференцируемые или дискретные задачи, где градиенты недоступны.
  • Vs. Роевой интеллект: Хотя и те, и другие являются биоинспирированными, Роевой интеллект (например, колония муравьев Оптимизация муравьиной колонии) фокусируется на коллективном поведении децентрализованных агентов, взаимодействующих в рамках одного жизненного цикла. В В отличие от этого, советники полагаются на замену поколений решений, когда слабые кандидаты отбрасываются в пользу потомства от более сильных родителей.
  • Vs. Обучение с подкреплением: Обучение с подкреплением (RL) включает в себя Агент учится путем проб и ошибок взаимодействовать с окружающей средой, чтобы максимизировать сигнал вознаграждения. Хотя советники могут оптимизировать политику, они делают это путем эволюции популяции параметров политики, а не путем обучения в ходе непрерывных циклов взаимодействия агента со средой.

Чтобы узнать больше о том, как улучшить работу модели, изучите наши руководства по советы по обучению моделей и предотвращению переоценки.

Присоединяйтесь к сообществу Ultralytics

Присоединяйтесь к будущему ИИ. Общайтесь, сотрудничайте и развивайтесь вместе с мировыми новаторами

Присоединиться сейчас