YOLO Vision 2025를 놓치지 마세요!
2025년 9월 25일
10:00 — 18:00 BST
하이브리드 이벤트
Yolo Vision 2024

Ultralytics YOLO11로 AI 기반 드론 애플리케이션 구축

Abirami Vina

4분 소요

2025년 4월 18일

Ultralytics YOLO11로 AI 기반 드론 애플리케이션을 구축하여 실시간 객체 감지 및 드론 기반 컴퓨터 비전 작업을 수행하는 방법을 알아보세요.

매장 쇼핑과 온라인 쇼핑은 비슷해 보일 수 있지만, 서로 다른 물류에 의존합니다. 매장은 선반을 다시 채워야 하는 반면, 온라인 주문은 문 앞 배송에 달려 있습니다. 기술 발전 덕분에 두 쇼핑 경험 모두 동시에 재편되고 있습니다.

예를 들어, 배송에 큰 변화가 일어나고 있습니다. AI 기반 드론은 제품이 우리 집에 도착하는 방식을 바꾸고 있습니다. 이러한 스마트 드론은 향후 10년 동안 약 8억 800만 건의 배송을 처리하여 하늘을 일상 상거래의 최신 배송 경로로 바꿀 것으로 예상됩니다.

배달 드론은 인공지능(AI)과 시각 데이터를 분석하는 데 사용되는 AI의 하위 분야인 컴퓨터 비전을 사용하여 장애물을 탐색하고 피합니다. Ultralytics YOLO11과 같은 컴퓨터 비전 모델은 드론이 물체를 실시간으로 감지하고 추적하여 환경을 더 잘 이해하고 상호 작용할 수 있도록 돕습니다.

Fig 1. 목적지로 택배를 운반하는 배달 드론.

Meituan 및 DJI와 같은 회사는 이미 컴퓨터 비전을 드론에 통합하고 있습니다. 실제로 다양한 산업 분야에서 드론의 빠른 채택으로 인해 AI 드론 시장은 2031년까지 2,069억 달러로 급증할 것으로 예상됩니다. 

본 문서에서는 Ultralytics YOLO11과 같은 컴퓨터 비전 모델이 드론 배송과 같은 드론 기반 애플리케이션에서 어떻게 사용될 수 있는지 자세히 살펴보겠습니다. 이러한 기술이 실제 시나리오에서 사용되기 전에 어떻게 개발되고 테스트될 수 있는지 보여주는 예제를 살펴보겠습니다.

드론에서 Ultralytics YOLO11을 사용하여 주택 감지

배송 드론의 핵심은 항해 시 주택을 감지하는 능력입니다. 이 기능을 재현하고 작동 방식을 이해하기 위해 항공 드론이 촬영한 영상에서 주택을 식별할 수 있는 컴퓨터 비전 모델을 훈련할 것입니다. 이를 위해 레이블이 지정된 예제를 사용하여 사전 훈련된 YOLO11 모델을 미세 조정하여 주택을 인식하고 감지하는 맞춤형 훈련을 통해 YOLO11을 사용할 것입니다.

이를 위해서는 드론에서 얻은 고품질 비디오 데이터가 필요합니다. 흥미롭게도 실제 드론에 액세스하지 않고도 현실적인 항공 촬영 영상을 생성할 수 있습니다. 방법을 살펴보겠습니다.

Google 어스 스튜디오를 사용하여 인공 드론 샷 만들기

Google Earth Studio는 사용자가 Google Earth의 위성 및 3D 이미지를 사용하여 스틸 및 애니메이션 콘텐츠를 만들 수 있는 웹 기반 애니메이션 도구입니다. 이를 사용하여 현실적인 항공 촬영 영상을 만들 수 있습니다.

첫 번째 단계는 아래와 같이 Google Earth Studio를 열고 프로젝트를 만드는 것입니다. 

로그인하려면 Google 계정이 필요합니다.

Fig 2. Google Earth Studio에서 프로젝트 생성.

로그인한 후에는 인공 드론 비디오의 위치를 선택할 수 있습니다. 페이지 왼쪽 상단 모서리에 있는 검색 창을 사용하여 위치를 검색할 수 있습니다. 이 튜토리얼에서는 캐나다를 선택합니다. 또한 주택을 감지하는 모델을 학습할 것이므로 드론 비디오는 주택의 항공 뷰를 가져야 합니다.

Fig 3. Google Earth Studio를 사용하여 위치를 선택합니다.

다음으로, 인공 드론 샷의 움직임을 캡처하기 위해 처음 및 마지막 시간 프레임을 설정할 수 있습니다. 드론 샷의 시작 위치를 선택했으면 아래와 같이 파란색 다이아몬드를 사용하여 첫 번째 프레임을 설정합니다. 

Fig 4. 파란색 다이아몬드를 사용하여 첫 번째 프레임을 설정합니다.

다음으로, 드론의 목적지를 결정하기 위해 마지막 프레임을 선택할 수 있습니다. 이렇게 하면 드론 영상에 움직이는 효과를 줄 수 있습니다. 이를 위해 아래 강조 표시된 막대를 오른쪽으로 밀어 드론 샷에 움직이는 효과를 줄 특정 시간을 설정합니다. 다시 한번, 파란색 다이아몬드를 사용하여 마지막 지점을 설정합니다.

Fig 5. 막대를 움직여 마지막 프레임을 설정합니다.

마지막으로, 페이지 오른쪽 상단에 있는 빨간색 '렌더링' 버튼을 클릭하여 이 프로젝트를 저장하고 렌더링할 수 있습니다. 그러면 드론 샷의 최종 비디오 결과물이 생성되어 인공 드론 비디오 영상이 성공적으로 만들어집니다.

Fig 6. 최종 결과 비디오 렌더링.

드론 데이터에 라벨을 지정하는 방법은?

이제 인공 드론 비디오 영상을 만들었으니, 다음 단계는 비디오에 있는 집을 레이블링하거나 주석을 다는 것입니다. 또한 비디오의 개별 프레임을 분리해야 합니다. 

시작하려면 LabelImg를 설치합니다. LabelImg는 오픈 소스 이미지 레이블링 도구입니다. 다음 명령 “pip install labelImg”을 실행하여 pip 패키지 설치 프로그램을 사용하여 터미널에서 직접 설치할 수 있습니다.

설치 후 터미널 또는 명령 프롬프트에서 'labelImg' 명령을 사용하여 도구를 실행할 수 있습니다. 그러면 아래와 같은 페이지가 나타납니다.

Fig 7. LabelImg 도구 인터페이스.

한편, 온라인 비디오-이미지 변환기 또는 FFmpeg이라는 도구를 사용하여 비디오를 프레임으로 분할할 수 있습니다. FFmpeg는 오디오, 비디오, 자막 및 관련 메타데이터와 같은 멀티미디어 콘텐츠를 처리하기 위한 라이브러리 및 도구 모음입니다. 

다음 터미널 명령을 사용하여 드론 촬영 비디오의 각 프레임을 분리할 수 있습니다.

드론 영상의 프레임을 분리했으면 해당 프레임에서 객체(집)에 레이블을 지정할 수 있습니다. LabelImg 도구를 통해 이미지 폴더로 이동하여 각 이미지의 객체에 레이블을 지정할 수 있습니다. 레이블이 지정된 모든 이미지를 저장하고 확인해야 합니다. 이미지에 주석을 단 후 이 데이터를 사용하여 YOLO11을 훈련할 수 있습니다.

Fig 8. 어노테이션이 추가된 이미지 저장 예시.

YOLO11 모델 학습 워크플로

YOLO11 훈련을 시작하기 전에 이미지와 레이블을 정리합니다. 먼저 "train"이라는 폴더와 "valid"라는 폴더 두 개를 만듭니다. 이미지를 이러한 폴더 간에 분할합니다. 각 폴더 안에 이미지와 해당 레이블 파일(텍스트 형식)에 대한 별도의 하위 폴더를 만듭니다(아래 참조).

Fig 9. 이미지 및 레이블 폴더 생성 예시.

다음으로, 다음과 같이 YOLO11 모델 학습을 시작할 수 있습니다.

  • 1단계: Ultralytics Python 패키지를 설치합니다. 터미널에서 “pip install ultralytics” 명령을 실행하여 설치할 수 있습니다. 설치 문제가 발생하면 문제 해결에 도움이 되는 팁과 요령은 문제 해결 가이드를 확인하십시오.
  • 2단계: 패키지를 성공적으로 설치한 후 'data.yaml'이라는 파일을 생성합니다. 이는 모델 훈련에 중요한 구성 파일입니다. data.yaml 파일에 훈련 데이터세트 경로, 검증 데이터세트 경로, 클래스 수(nc) 및 클래스 이름 목록(names)을 아래와 같이 포함합니다.
Fig 10. data.yaml 파일의 예시입니다.

  • 3단계: 'data.yaml' 파일이 구성되면 다음 Python 코드를 사용하여 모델 훈련을 시작할 수 있습니다. 이 코드는 사전 훈련된 YOLO11 모델을 로드하고 구성에 따라 훈련합니다.
from ultralytics import YOLO

# Load a YOLO11 model
model = YOLO("yolo11n.pt")  # choose your model, e.g., YOLO11 nano

# Train the model with your data and settings
model.train(data="data.yaml", epochs=100, imgsz=640)
  • 4단계: 훈련이 완료되면 아래와 유사한 출력이 표시됩니다. 이는 드론 기반 애플리케이션을 위해 YOLO11 모델을 성공적으로 훈련했음을 의미합니다.
Fig 11. 모델 학습 후 표시되는 결과입니다.

드론에서 Ultralytics YOLO11을 사용하여 예측 실행

이제 훈련된 YOLO11 모델을 추론이라는 프로세스를 통해 예측하는 데 사용할 수 있습니다. 추론은 훈련 중에 학습한 내용을 바탕으로 새로운 미지의 데이터를 분석하기 위해 모델을 사용하는 것을 포함합니다. 이 경우 모델을 사용하여 이미지나 비디오에서 집과 같은 특정 객체를 찾고 경계 상자를 그려 레이블을 지정할 수 있습니다.

예측을 실행하려면 다음 Python 코드를 사용하여 훈련된 YOLO11 모델을 입력 비디오에 사용할 수 있습니다. 이 예에서는 훈련에 사용된 것과 동일한 인공 드론 비디오를 사용하지만 원하는 경우 다른 비디오 파일을 사용할 수도 있습니다.

# Import library
from ultralytics import YOLO

# Load the YOLO model
model = YOLO("best.pt")  # Choose your custom-trained model

# Predict the results from the model
results = model.predict(source="path/to/original/video.mp4", show=True, save=True)

이 코드를 실행하면 예측 및 경계 상자가 포함된 출력 비디오 파일이 저장됩니다.

Fig 12. 출력 비디오 파일의 프레임입니다. 

다양한 애플리케이션을 위한 드론에 Ultralytics YOLO11 통합

드론 배달 패키지를 위한 집 감지는 컴퓨터 비전과 YOLO11이 적용될 수 있는 한 가지 예일 뿐입니다. 다음은 컴퓨터 비전, YOLO11 및 항공 드론의 다른 실제 사용 사례입니다.

  • 감시 및 보안: AI 드론을 사용하여 넓은 지역을 실시간으로 모니터링할 수 있습니다. 침입을 감지하고, 의심스러운 활동을 추적하며, 국경과 대규모 공공 행사에서 보안을 강화할 수 있습니다. 
  • 재난 대응 및 수색 및 구조: 열화상 카메라와 객체 감지 기능을 갖춘 드론은 재난 지역에서 생존자를 찾는 데 도움을 줄 수 있습니다. 또한 피해를 평가하고 긴급 구호품을 전달할 수도 있습니다.
  • 농업 및 정밀 농업: 컴퓨터 비전과 통합된 드론을 사용하여 작물 건강을 분석하고 질병을 감지하여 농부들이 비용을 절감하면서 수확량을 늘릴 수 있도록 돕습니다. 
  • 매핑 및 지리 공간 분석: AI 드론은 고해상도 3D 지도를 수집하여 도시 계획 및 토지 측량을 지원할 수 있습니다. 기존 방식보다 더 빠르고 정확하게 지형을 평가할 수 있습니다. 

주요 내용

컴퓨터 비전으로 구동되는 AI 드론은 택배 배송부터 긴급 상황 지원 및 농업 지원에 이르기까지 많은 산업을 변화시키고 있습니다. 이 가이드에서는 인공 드론 비디오를 만들고, 비디오에서 객체에 레이블을 지정하고, YOLO11을 훈련하고, 이를 사용하여 집을 감지하는 과정을 살펴보았습니다.

드론 영상에 객체 탐지를 적용하면 드론이 더 스마트해져 실시간으로 객체를 자동 인식하고 추적할 수 있습니다. 기술이 발전함에 따라 AI 기반 드론은 배송 속도 향상, 보안 개선, 재난 대응 지원 등에서 더 큰 역할을 수행할 것으로 예상됩니다.

커뮤니티에 참여하고 GitHub 저장소를 탐색하여 Vision AI에 대해 자세히 알아보고 라이선스 옵션을 확인하여 컴퓨터 비전 프로젝트를 시작하세요. 제조 분야의 AI 또는 자동차 산업의 컴퓨터 비전과 같은 혁신에 관심이 있으신가요? 솔루션 페이지를 방문하여 자세히 알아보세요. 

함께 미래의 AI를 만들어 갑시다!

미래의 머신러닝 여정을 시작하세요

무료로 시작하기
클립보드에 링크가 복사되었습니다.