YOLO Vision 2025를 놓치지 마세요!
2025년 9월 25일
10:00 — 18:00 BST
하이브리드 이벤트
Yolo Vision 2024
용어집

진화 알고리즘

진화 알고리즘이 자연에서 영감을 받은 전략을 사용하여 하이퍼파라미터 튜닝에서 로봇 공학에 이르기까지 AI 및 ML 솔루션을 어떻게 최적화하는지 알아보세요.

진화 알고리즘(EA)은 복잡한 최적화 문제를 해결하기 위해 생물학적 진화 원리를 사용하는 인공 지능머신 러닝의 매력적인 하위 집합입니다. 다윈의 자연 선택에서 영감을 얻은 이러한 알고리즘은 가능한 최상의 결과를 찾기 위해 후보 솔루션의 모집단을 반복적으로 개선합니다. EA는 단일 솔루션을 사용하는 대신 잠재적인 답변의 다양한 풀을 유지하여 광범위한 검색 공간을 탐색하고 다른 최적화 알고리즘의 일반적인 문제인 차선책 솔루션에 갇히는 것을 방지합니다.

진화 알고리즘 작동 방식

EA의 핵심 프로세스는 다음과 같은 몇 가지 주요 단계를 통해 자연 진화를 모방합니다.

  1. 초기화: 알고리즘은 임의의 후보 솔루션의 초기 모집단을 생성하여 시작합니다.
  2. 적합도 평가: 모집단의 각 솔루션은 대상 문제를 얼마나 잘 해결하는지 측정하는 적합도 함수를 사용하여 평가됩니다. 예를 들어 컴퓨터 비전 모델을 훈련할 때 적합도는 모델의 정확도로 측정할 수 있습니다.
  3. 선택: "가장 적합한" 개체가 선택되어 다음 세대의 "부모"가 됩니다. 이 단계는 "적자생존"과 유사합니다.
  4. 재생산 (교차 및 변이): 선택된 부모로부터 자손이 생성됩니다. 교차는 두 부모 솔루션의 일부를 결합하여 새로운 솔루션을 만드는 반면, 변이는 솔루션에 작고 임의적인 변화를 줍니다. 이러한 작업은 모집단에 새로운 변형을 도입하여 더 나은 솔루션을 찾도록 유도합니다.
  5. 종료: 이 주기는 만족스러운 솔루션이 발견되거나 미리 정의된 중단 기준(예: 세대 수)이 충족될 때까지 여러 세대에 걸쳐 반복됩니다.

일반적인 EA 유형에는 유전 알고리즘(GA), 유전 프로그래밍, 진화 전략(ES) 및 차분 진화(DE)가 있습니다.

실제 애플리케이션

EA는 검색 공간이 크고 복잡하거나 제대로 이해되지 않은 문제를 해결하는 데 매우 다재다능하게 사용됩니다.

  • 머신러닝 모델을 위한 하이퍼파라미터 튜닝: ML에서 가장 일반적인 애플리케이션 중 하나는 최적의 하이퍼파라미터(예: 학습률 또는 모델의 네트워크 아키텍처). Ultralytics 라이브러리에는 다음이 포함되어 있습니다. Tuner EA를 활용하여 훈련에 가장 적합한 설정을 자동으로 찾는 클래스 Ultralytics YOLO 모델, 이 과정은 당사의 Hyperparameter Tuning 가이드. 이는 다음과 같은 통합을 사용하여 더욱 확장할 수 있습니다. Ray Tune 다음과 같은 도구로 관리되는 분산 실험의 경우 Ultralytics HUB.
  • 설계 및 엔지니어링 최적화: EA는 복잡한 시스템에 대한 최적의 설계를 만드는 데 사용됩니다. 유명한 예는 NASA가 ST5 우주선을 위한 안테나를 설계하기 위해 EA를 사용한 것입니다. 이 알고리즘은 인간 엔지니어에게는 직관적이지 않은 새롭고 매우 효율적인 안테나 모양을 개발했습니다. 동일한 원리가 보행을 진화시키기 위한 로봇 공학과 생산 라인을 최적화하기 위한 제조 분야의 AI에 적용됩니다.
  • 헬스케어 분야의 AI: 의학 분야에서 EA는 병원 직원의 피로도를 최소화하기 위한 스케줄링이나 방사선 치료 계획 최적화와 같은 복잡한 작업을 지원합니다. 또한 특정 치료 속성을 가진 분자를 찾기 위해 광대한 화학 공간을 검색하는 신약 개발에도 사용됩니다.

진화 알고리즘 vs. 관련 개념

EAs를 다른 관련 AI 패러다임과 구별하는 것이 유용합니다.

  • 군집 지능(Swarm Intelligence, SI): 둘 다 자연에서 영감을 받은 개체 기반 방법입니다. 그러나 진화 알고리즘(EAs)은 선택, 교차 및 변이를 통해 세대별 개선에 중점을 둡니다. 이와는 대조적으로 군집 지능(SI)은 문제 해결을 위해 단일 세대 내에서 상호 작용하는 분산 에이전트(예: 새 떼 또는 개미 군체)의 집단적 행동을 모델링합니다.
  • 강화 학습(RL): RL은 에이전트가 환경과 상호 작용하고 보상 또는 페널티를 받음으로써 최적의 정책을 학습하는 것을 포함합니다. 반면에 EA는 반드시 상호 작용 환경이나 명시적인 보상 신호를 필요로 하지 않는 모집단 기반 검색 기술입니다.
  • Gradient-Based Optimization: Stochastic Gradient Descent (SGD)Adam과 같은 알고리즘은 모델 파라미터를 업데이트하기 위해 손실 함수의 기울기를 계산하는 데 의존합니다. EA는 기울기가 없으므로 미분 불가능하거나 불연속적이거나 많은 로컬 최적점을 갖는 문제에 매우 효과적입니다.

Ultralytics 커뮤니티에 참여하세요

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기
클립보드에 링크가 복사되었습니다.