YOLO Vision 2025를 놓치지 마세요!
2025년 9월 25일
10:00 — 18:00 BST
하이브리드 이벤트
Yolo Vision 2024

Vision AI 애플리케이션을 위한 다양한 유형의 데이터 탐색

Abirami Vina

4분 소요

2025년 5월 9일

열화상, LiDAR 및 적외선 이미지와 같은 시각적 데이터 유형이 다양한 산업 분야에서 다양한 컴퓨터 비전 애플리케이션을 어떻게 가능하게 하는지 알아보세요.

드론과 같은 기술은 과거에는 제한적이었고 연구원과 전문가만 접근할 수 있었지만, 오늘날에는 최첨단 하드웨어를 더 많은 사람들이 이용할 수 있게 되었습니다. 이러한 변화는 시각적 데이터를 수집하는 방식을 바꾸고 있습니다. 기술 접근성이 높아짐에 따라 이제 기존 카메라뿐만 아니라 다양한 소스에서 이미지와 비디오를 캡처할 수 있습니다.

이와 병행하여 인공 지능(AI)의 한 분야인 컴퓨터 비전에 의해 가능해진 이미지 분석이 빠르게 발전하여 기계가 시각적 데이터를 보다 효과적으로 해석하고 처리할 수 있게 되었습니다. 이러한 발전은 자동화, 객체 감지 및 실시간 분석을 위한 새로운 가능성을 열었습니다. 이제 기계는 패턴을 인식하고, 움직임을 추적하고, 복잡한 시각적 입력을 이해할 수 있습니다.

주요 시각적 데이터 유형으로는 객체 인식에 일반적으로 사용되는 RGB(Red, Green, Blue) 이미지, 저조도 조건에서 열 신호를 감지하는 데 도움이 되는 열화상, 기계가 3D 환경을 이해할 수 있도록 하는 깊이 데이터가 있습니다. 이러한 각 데이터 유형은 감시에서 의료 영상에 이르기까지 다양한 Vision AI 애플리케이션에 전력을 공급하는 데 중요한 역할을 합니다.

이 기사에서는 Vision AI에 사용되는 주요 시각적 데이터 유형을 살펴보고 각 유형이 다양한 산업 분야에서 정확성, 효율성 및 성능을 향상시키는 데 어떻게 기여하는지 살펴보겠습니다. 시작해 보겠습니다!

가장 일반적인 AI 이미지 및 비디오 데이터 세트 유형

일반적으로 스마트폰을 사용하여 사진을 찍거나 CCTV 영상을 볼 때 RGB 이미지를 사용하게 됩니다. RGB는 빨강, 녹색 및 파랑을 나타내며 디지털 이미지의 시각적 정보를 나타내는 세 가지 색상 채널입니다. 

RGB 이미지와 비디오는 컴퓨터 비전에 사용되는 밀접하게 관련된 시각적 데이터 유형이며, 둘 다 표준 카메라를 사용하여 캡처됩니다. 주요 차이점은 이미지는 단일 순간을 캡처하는 반면 비디오는 시간이 지남에 따라 사물이 어떻게 변하는지 보여주는 프레임 시퀀스라는 것입니다.

RGB 이미지는 일반적으로 컴퓨터 비전 작업 (예: 객체 감지, 인스턴스 분할 및 자세 추정)에 사용되며, Ultralytics YOLO11과 같은 모델에서 지원됩니다. 이러한 애플리케이션은 단일 프레임에서 패턴, 모양 또는 특정 기능을 식별하는 데 의존합니다. 

반면에 비디오는 제스처 인식, 감시 또는 동작 추적과 같이 움직임이나 시간이 중요한 요소일 때 필수적입니다. 비디오는 일련의 이미지로 간주될 수 있으므로 YOLO11과 같은 컴퓨터 비전 모델은 프레임별로 처리하여 시간이 지남에 따라 움직임과 동작을 이해합니다.

예를 들어 YOLO11을 사용하여 RGB 이미지 또는 비디오를 분석하여 농경지에서 잡초를 감지하고 식물을 셀 수 있습니다. 이를 통해 작물 모니터링이 향상되고 보다 효율적인 농장 관리를 위해 성장 주기 전반에 걸쳐 변화를 추적하는 데 도움이 됩니다.

그림 1. YOLO11은 더 스마트한 작물 모니터링을 위해 식물을 감지하고 셀 수 있습니다.

Vision AI의 깊이 데이터: LiDAR 및 3D 인식

깊이 데이터는 카메라나 센서로부터 객체가 얼마나 떨어져 있는지 나타내어 시각 정보에 3차원 정보를 추가합니다. 색상만 캡처하는 RGB 이미지와 달리 깊이 데이터는 공간적 맥락을 제공합니다. 객체와 카메라 사이의 거리를 보여주어 장면의 3D 레이아웃을 해석할 수 있게 합니다.

이러한 유형의 데이터는 LiDAR, 스테레오 비전(인간의 깊이 인식을 모방하기 위해 두 대의 카메라 사용), Time-of-Flight (빛이 물체에 닿았다가 되돌아오는 데 걸리는 시간을 측정) 카메라와 같은 기술을 사용하여 캡처됩니다. 

이 중에서 LiDAR(Light Detection and Ranging)는 깊이 측정에 가장 신뢰할 수 있는 기술입니다. 빠른 레이저 펄스를 보내고 되돌아오는 데 걸리는 시간을 측정하는 방식으로 작동합니다. 그 결과는 실시간으로 객체의 모양, 위치 및 거리를 강조하는 포인트 클라우드라고 하는 매우 정확한 3D 맵입니다.

Vision AI 시스템에서 LiDAR의 역할 증가

LiDAR 기술은 특정 애플리케이션과 환경에 맞게 설계된 두 가지 주요 유형으로 나눌 수 있습니다. 두 가지 유형을 자세히 살펴보겠습니다.

  • 항공 LiDAR: 일반적으로 넓은 영역을 매핑하는 데 사용되는 항공 LiDAR 스캐너는 드론 또는 항공기에 장착되어 대규모 지형 매핑을 위한 고해상도 데이터를 캡처합니다. 지형, 숲 및 풍경 측량에 이상적입니다.

  • 지상 LiDAR: 이 유형의 LiDAR 데이터는 인프라 모니터링, 건설 및 실내 매핑과 같은 애플리케이션을 위해 차량 또는 고정 플랫폼에 장착된 센서에서 수집됩니다. 더 작고 국지적인 영역에 대한 매우 상세한 데이터를 제공하므로 도시 계획 및 특정 구조물 측량과 같은 작업에 유용합니다.

LiDAR 데이터의 영향력 있는 응용 분야는 자율 주행 차량이며, 차선 감지, 충돌 방지 및 주변 객체 식별과 같은 작업에서 핵심적인 역할을 합니다. LiDAR는 환경의 상세한 실시간 3D 맵을 생성하여 차량이 객체를 보고, 거리를 계산하고, 안전하게 탐색할 수 있도록 합니다.

그림 2. LiDAR 기술을 통해 자율 주행 차량은 깊이를 매핑하고 물체를 감지할 수 있습니다.

AI 애플리케이션에서 열 및 적외선 데이터 사용

RGB 이미지는 가시 광선 스펙트럼에서 보이는 것을 캡처하지만, 열 및 적외선 이미징과 같은 다른 이미징 기술은 이를 뛰어넘습니다. 적외선 이미징은 물체에서 방출되거나 반사되는 적외선을 캡처하여 저조도 조건에서 유용합니다.

반대로 열화상 이미징은 물체에서 방출되는 열을 감지하고 온도 차이를 보여주어 완전한 어둠 속이나 연기, 안개 및 기타 장애물을 통해 작동할 수 있습니다. 이러한 유형의 데이터는 특히 온도 변화가 잠재적인 문제를 나타낼 수 있는 산업에서 문제를 모니터링하고 감지하는 데 유용합니다.

흥미로운 예는 전기 부품의 과열 징후를 모니터링하는 데 사용되는 열화상 이미징입니다. 온도 차이를 감지하여 열화상 카메라는 장비 고장, 화재 또는 비용이 많이 드는 손상을 초래하기 전에 문제를 식별할 수 있습니다. 

그림 3. 전기 부품을 모니터링하는 데 사용되는 열화상 이미징의 예입니다.

마찬가지로 적외선 이미지는 유출되는 가스 또는 유체를 나타내는 온도 차이를 식별하여 파이프라인 또는 단열재의 누출을 감지하는 데 도움이 될 수 있으며, 이는 위험한 상황을 방지하고 에너지 효율성을 개선하는 데 중요합니다.

AI에서 다중 분광 및 초분광 이미징

적외선 및 열화상 이미징은 전자기 스펙트럼의 특정 측면을 캡처하는 반면, 다중 분광 이미징은 건강한 식물 감지 또는 표면 재료 식별과 같은 특정 목적을 위해 선택된 몇 가지 파장 범위에서 빛을 수집합니다. 

초분광 이미징은 수백 개의 매우 좁고 연속적인 파장 범위에서 빛을 캡처하여 한 단계 더 나아갑니다. 이는 이미지의 각 픽셀에 대한 자세한 빛 시그니처를 제공하여 관찰되는 모든 재료에 대한 훨씬 더 깊은 이해를 제공합니다.

그림 4. 다중 분광 및 초분광 이미징 비교.

다중 분광 및 초분광 이미징은 모두 특수 센서와 필터를 사용하여 다른 파장에서 빛을 캡처합니다. 그런 다음 데이터는 각 레이어가 다른 파장을 나타내는 스펙트럼 큐브라는 3D 구조로 구성됩니다. 

AI 모델은 이 데이터를 분석하여 일반 카메라나 인간의 눈으로는 볼 수 없는 특징을 감지할 수 있습니다. 예를 들어 식물 표현형 분석에서 초분광 이미징은 영양 결핍 또는 스트레스와 같은 잎이나 줄기의 미묘한 변화를 감지하여 식물의 건강과 성장을 모니터링하는 데 사용할 수 있습니다. 이는 연구자가 침습적인 방법 없이 식물 건강을 평가하고 농업 관행을 최적화하는 데 도움이 됩니다.

AI를 사용한 레이더 및 소나 이미징 분석

레이더 및 소나 이미징은 LiDAR와 유사하게 신호를 보내고 반사를 분석하여 객체를 감지하고 매핑하는 기술입니다. 시각 정보를 캡처하기 위해 빛 파장에 의존하는 RGB 이미징과 달리 레이더는 전자기파(일반적으로 전파)를 사용하는 반면 소나는 음파를 사용합니다. 레이더 및 소나 시스템은 모두 펄스를 방출하고 신호가 객체에서 되돌아오는 데 걸리는 시간을 측정하여 거리, 크기 및 속도에 대한 정보를 제공합니다.

레이더 이미징은 안개, 비 또는 야간과 같이 가시성이 좋지 않은 경우에 특히 유용합니다. 빛에 의존하지 않기 때문에 완전한 어둠 속에서 항공기, 차량 또는 지형을 감지할 수 있습니다. 따라서 레이더는 항공, 기상 모니터링 및 자율 항법에서 신뢰할 수 있는 선택입니다.

이에 비해 소나 이미징은 빛이 도달할 수 없는 수중 환경에서 일반적으로 사용됩니다. 물을 통해 이동하고 잠수된 물체에서 반사되는 음파를 사용하여 잠수함을 감지하고, 해저를 매핑하고, 수중 구조 임무를 수행할 수 있습니다. 컴퓨터 비전의 발전으로 소나 데이터와 지능형 분석을 결합하여 수중 감지를 더욱 향상시켜 감지 및 의사 결정을 개선할 수 있습니다.

그림 5. SONAR 시스템이 초음파 펄스를 사용하여 해저 깊이를 측정하는 방법.

AI 모델 학습을 위한 합성 및 시뮬레이션 시각 데이터

지금까지 논의한 다양한 유형의 데이터는 실제 세계에서 수집할 수 있는 데이터였습니다. 그러나 합성 및 시뮬레이션 시각 데이터는 모두 인공 콘텐츠 유형입니다. 합성 데이터는 3D 모델링 또는 생성형 AI를 사용하여 처음부터 생성되어 현실적인 이미지나 비디오를 생성합니다. 

그림 6. 합성적으로 생성된 이미지 보기.

시뮬레이션된 데이터는 유사하지만 빛 반사, 그림자 형성 및 객체 이동을 포함하여 물리적 세계가 작동하는 방식을 복제하는 가상 환경을 만드는 것을 포함합니다. 모든 시뮬레이션된 시각 데이터가 합성 데이터인 것은 아니며, 모든 합성 데이터가 시뮬레이션된 데이터인 것도 아닙니다. 핵심적인 차이점은 시뮬레이션된 데이터는 외관뿐만 아니라 현실적인 동작을 복제한다는 것입니다.

이러한 데이터 유형은 특히 실제 데이터를 수집하기 어렵거나 특정 희귀 상황을 시뮬레이션해야 할 때 컴퓨터 비전 모델을 학습하는 데 유용합니다. 개발자는 전체 장면을 만들고, 객체 유형, 위치 및 조명을 선택하고, 학습을 위해 경계 상자와 같은 레이블을 자동으로 추가할 수 있습니다. 이는 실제 사진이나 수동 레이블링 없이도 크고 다양한 데이터 세트를 빠르게 구축하는 데 도움이 되며, 비용과 시간이 많이 소요될 수 있습니다.

예를 들어, 의료 분야에서 합성 데이터는 실제 이미지의 대규모 데이터 세트를 수집하고 레이블링하기 어려운 유방암 세포를 분할하는 모델을 학습하는 데 사용할 수 있습니다. 합성 및 시뮬레이션된 데이터는 유연성과 제어 기능을 제공하여 실제 시각 자료가 제한된 부분을 채웁니다.

AI 애플리케이션에 적합한 시각 데이터 유형 선택

이제 다양한 유형의 시각 데이터가 어떻게 작동하고 무엇을 할 수 있는지 살펴보았으므로 특정 작업에 가장 적합한 데이터 유형을 자세히 살펴보겠습니다.

  • RGB 이미지: 이미지 분류 및 객체 감지와 같은 일반적인 컴퓨터 비전 작업에 적합합니다. 색상과 질감을 캡처하지만 저조도 또는 열악한 가시성과 같은 까다로운 조건에서는 제한적입니다.

  • LiDAR 이미징: 이 이미징 유형은 레이저 펄스를 사용하여 고정밀 3D 매핑을 제공합니다. 로봇 공학, 자율 주행 차량 및 인프라 검사와 같이 정확한 거리 측정이 필요한 애플리케이션에 적합합니다.
  • 열화상 이미징: 온도 차이를 감지할 수 있으므로 야간 모니터링, 화재 진압 또는 기계 및 건물에서 열 누출 감지와 같이 가시성이 낮은 조건에서 유용합니다.
  • 다중 분광 및 초분광 이미징: 농업 모니터링, 제약 품질 관리 또는 원격 감지와 같이 자세한 재료 분석이 필요한 작업에 유용합니다. 이러한 방법은 가시광선 외에 광범위한 파장에서 데이터를 캡처하여 더 깊은 통찰력을 제공합니다.

  • 레이더 및 소나 이미징: 가시성이 낮은 환경에서 선호됩니다. 레이더는 전파를 사용하며 항공 및 항해에 유용하고, 소나는 음파를 사용하여 수중 탐지를 위해 작동합니다.

  • 합성 및 시뮬레이션 시각 데이터: 실제 데이터가 제한되거나 사용할 수 없거나 레이블을 지정하기 어려울 때 AI 모델 학습에 이상적입니다. 이러한 인공 시각 자료는 드문 이벤트 또는 안전에 중요한 조건과 같은 복잡한 시나리오를 위한 다양한 데이터 세트를 구축하는 데 도움이 됩니다.

경우에 따라 단일 데이터 유형으로는 실제 상황에서 충분한 정확성이나 컨텍스트를 제공하지 못할 수 있습니다. 따라서 다중 모드 센서 융합이 중요해집니다. RGB를 열, 깊이 또는 LiDAR와 같은 다른 데이터 유형과 결합함으로써 시스템은 개별적인 한계를 극복하여 신뢰성과 적응성을 향상시킬 수 있습니다. 

예를 들어 창고 자동화에서 객체 인식을 위해 RGB를 사용하고, 거리 측정을 위해 깊이를 사용하고, 과열된 장비 감지를 위해 열을 사용하면 작업 효율성이 향상되고 안전이 강화됩니다. 궁극적으로 최상의 결과는 애플리케이션의 특정 요구 사항에 따라 데이터 유형을 선택하거나 결합하는 데서 비롯됩니다.

주요 내용

Vision AI 모델을 구축할 때 올바른 유형의 시각 데이터를 선택하는 것이 중요합니다. 객체 감지, 분할 및 동작 추적과 같은 작업은 알고리즘뿐만 아니라 입력 데이터의 품질에도 의존합니다. 깨끗하고 다양하며 정확한 데이터 세트는 노이즈를 줄이고 성능을 향상시키는 데 도움이 됩니다.

RGB, 깊이, 열 및 LiDAR와 같은 데이터 유형을 결합함으로써 AI 시스템은 환경에 대한 보다 완전한 뷰를 얻어 다양한 조건에서 더욱 안정적으로 작동할 수 있습니다. 기술이 계속 발전함에 따라 Vision AI가 더욱 빠르고 적응력이 뛰어나며 산업 전반에 걸쳐 더 큰 영향을 미칠 수 있는 길이 열릴 것입니다.

커뮤니티에 가입하고 GitHub 리포지토리를 탐색하여 컴퓨터 비전에 대해 자세히 알아보세요. 솔루션 페이지에서 의료 분야의 AI소매 분야의 컴퓨터 비전과 관련된 다양한 애플리케이션을 찾아보세요. Vision AI를 시작하려면 라이선스 옵션을 확인하세요.

함께 미래의 AI를 만들어 갑시다!

미래의 머신러닝 여정을 시작하세요

무료로 시작하기
클립보드에 링크가 복사되었습니다.