객체 감지, AI에서의 중요성, 그리고 YOLO11과 같은 모델이 자율 주행 자동차, 의료 및 보안과 같은 산업을 어떻게 변화시키고 있는지 알아보세요.

객체 감지, AI에서의 중요성, 그리고 YOLO11과 같은 모델이 자율 주행 자동차, 의료 및 보안과 같은 산업을 어떻게 변화시키고 있는지 알아보세요.
많은 산업 분야에서 인공지능(AI) 솔루션을 운영에 빠르게 통합하고 있습니다. 오늘날 사용 가능한 많은 AI 기술 중에서 컴퓨터 비전은 가장 인기 있는 기술 중 하나입니다. 컴퓨터 비전은 컴퓨터가 인간과 마찬가지로 이미지와 비디오의 내용을 보고 이해하도록 돕는 AI의 한 분야입니다. 이를 통해 기계는 객체를 인식하고, 패턴을 식별하고, 보고 있는 내용을 이해할 수 있습니다.
컴퓨터 비전의 글로벌 시장 가치는 2032년까지 1,757억 2천만 달러로 성장할 것으로 예상됩니다. 컴퓨터 비전은 비전 AI 시스템이 시각적 데이터를 분석하고 해석할 수 있도록 하는 다양한 작업을 포함합니다. 컴퓨터 비전의 가장 널리 사용되고 필수적인 작업 중 하나는 객체 감지입니다.
객체 탐지는 시각적 데이터에서 객체의 위치를 파악하고 분류하는 데 중점을 둡니다. 예를 들어, 컴퓨터에 소 이미지를 보여주면 소를 탐지하고 경계 상자를 그릴 수 있습니다. 이 기능은 동물 모니터링, 자율 주행 자동차 및 감시와 같은 실제 응용 분야에서 유용합니다.
그렇다면 객체 탐지는 어떻게 수행할 수 있을까요? 한 가지 방법은 컴퓨터 비전 모델을 이용하는 것입니다. 예를 들어 Ultralytics YOLO11은 객체 탐지와 같은 컴퓨터 비전 작업을 지원하는 컴퓨터 비전 모델입니다.
본 가이드에서는 객체 감지 및 작동 방식을 살펴봅니다. 또한 객체 감지 및 Ultralytics YOLO11의 실제 응용 분야에 대해서도 논의합니다.
객체 감지는 이미지 또는 비디오에서 객체를 식별하고 위치를 파악하는 컴퓨터 비전 작업입니다. '이미지에 어떤 객체가 있습니까?'와 '객체는 어디에 있습니까?'라는 두 가지 주요 질문에 답합니다.
객체 탐지는 두 가지 주요 단계를 포함하는 프로세스로 생각할 수 있습니다. 첫 번째 단계인 객체 분류는 시스템이 학습된 패턴을 기반으로 고양이, 자동차 또는 사람과 같은 객체를 인식하고 레이블을 지정할 수 있도록 합니다. 두 번째 단계인 위치 파악은 객체 주위에 경계 상자를 그려 이미지에서 객체가 나타나는 위치를 나타내어 객체의 위치를 결정합니다. 이러한 단계를 통해 기계는 장면에서 객체를 탐지하고 이해할 수 있습니다.
객체 탐지를 특별하게 만드는 측면은 객체를 인식하고 해당 위치를 정확하게 찾아낼 수 있다는 것입니다. 다른 컴퓨터 비전 작업은 다른 목표에 중점을 둡니다.
예를 들어 이미지 분류는 전체 이미지에 레이블을 할당합니다. 한편 이미지 분할은 다양한 요소에 대한 픽셀 수준의 이해를 제공합니다. 반면에 객체 탐지는 인식과 위치 지정을 결합합니다. 따라서 실시간으로 여러 객체를 계산하는 것과 같은 작업에 특히 유용합니다.
다양한 컴퓨터 비전 용어를 살펴볼 때 객체 인식과 객체 감지가 서로 바꿔 사용할 수 있다고 생각할 수 있지만, 이 둘은 서로 다른 목적을 수행합니다. 얼굴 감지와 얼굴 인식을 통해 그 차이점을 이해하는 것이 좋은 방법입니다.
얼굴 인식은 객체 감지의 한 유형입니다. 이미지에서 얼굴의 존재를 식별하고 바운딩 박스를 사용하여 위치를 표시합니다. 이는 “이미지에서 얼굴이 어디에 있습니까?”라는 질문에 대한 해답을 제공합니다. 이 기술은 얼굴에 자동으로 초점을 맞추는 스마트폰 카메라나 사람의 존재를 감지하는 보안 카메라에서 흔히 사용됩니다.
얼굴 인식은 객체 인식의 한 형태입니다. 얼굴을 감지할 뿐만 아니라 고유한 특징을 분석하고 데이터베이스와 비교하여 누구의 얼굴인지 식별합니다. '이 사람은 누구입니까?'라는 질문에 답합니다. 이것은 Face ID로 휴대폰을 잠금 해제하거나 신원을 확인하는 공항 보안 시스템의 배후에 있는 기술입니다.
간단히 말해서 객체 탐지는 객체를 찾고 위치를 파악하는 반면, 객체 인식은 객체를 분류하고 식별합니다.
YOLO11과 같은 많은 객체 탐지 모델은 얼굴 인식은 지원하지 않지만 얼굴 탐지를 지원하도록 설계되었습니다. YOLO11은 이미지에서 얼굴의 존재를 효율적으로 식별하고 경계 상자를 그릴 수 있으므로 감시 시스템, 군중 모니터링 및 자동 사진 태깅과 같은 애플리케이션에 유용합니다. 그러나 누구의 얼굴인지는 판단할 수 없습니다. YOLO11은 Facenet 또는 DeepFace와 같이 얼굴 인식을 위해 특별히 훈련된 모델과 통합되어 단일 시스템에서 탐지 및 식별을 모두 활성화할 수 있습니다.
객체 탐지가 어떻게 작동하는지 논의하기 전에 컴퓨터가 이미지를 어떻게 분석하는지 자세히 살펴보겠습니다. 컴퓨터는 이미지를 우리처럼 보는 대신 픽셀이라는 작은 정사각형 격자로 나눕니다. 각 픽셀에는 컴퓨터가 시각적 데이터를 해석하기 위해 처리할 수 있는 색상 및 밝기 정보가 포함되어 있습니다.
이러한 픽셀을 이해하기 위해 알고리즘은 모양, 색상 및 서로의 근접성을 기준으로 픽셀을 의미 있는 영역으로 그룹화합니다. YOLO11과 같은 객체 탐지 모델은 이러한 픽셀 그룹에서 패턴이나 특징을 인식할 수 있습니다.
예를 들어, 자율 주행 자동차는 우리가 보행자를 보는 방식이 아니라 보행자의 특징과 일치하는 모양과 패턴을 감지합니다. 이러한 모델은 레이블이 지정된 이미지 데이터 세트를 통해 광범위한 훈련을 거쳐 자동차, 교통 표지판 및 사람과 같은 객체의 고유한 특성을 학습할 수 있습니다.
일반적인 객체 감지 모델은 백본, 넥, 헤드의 세 가지 주요 부분으로 구성됩니다. 백본은 이미지에서 중요한 특징을 추출합니다. 넥은 이러한 특징을 처리하고 개선하는 반면, 헤드는 객체 위치를 예측하고 분류하는 역할을 합니다.
초기 감지가 이루어지면 정확도를 개선하고 중복 예측을 필터링하기 위해 사후 처리 기술이 적용됩니다. 예를 들어 겹치는 경계 상자가 제거되어 가장 관련성이 높은 감지만 유지됩니다. 또한 모델이 감지된 객체가 특정 클래스에 속한다고 얼마나 확신하는지를 나타내는 숫자 값인 신뢰도 점수가 각 감지된 객체에 할당되어 예측에 대한 모델의 확실성을 나타냅니다.
마지막으로, 감지된 객체 주위에 경계 상자가 그려지고 예측된 클래스 레이블 및 신뢰도 점수와 함께 결과가 표시됩니다. 이러한 결과는 실제 애플리케이션에 사용될 수 있습니다.
오늘날에는 많은 컴퓨터 비전 모델을 사용할 수 있으며 가장 인기 있는 모델 중 일부는 Ultralytics YOLO 모델입니다. 속도, 정확성 및 다재다능함으로 유명합니다. 수년에 걸쳐 이러한 모델은 더 빠르고 정확해졌으며 더 광범위한 작업을 처리할 수 있게 되었습니다. Ultralytics YOLOv5가 출시되면서 PyTorch와 같은 프레임워크를 통해 배포가 더 쉬워졌고 더 많은 사람들이 깊은 기술 전문 지식 없이도 고급 Vision AI를 사용할 수 있게 되었습니다.
이러한 토대를 바탕으로 Ultralytics YOLOv8은 인스턴스 분할, 포즈 추정 및 이미지 분류와 같은 새로운 기능을 도입했습니다. 이제 YOLO11은 여러 작업에서 더 나은 성능으로 상황을 더욱 발전시키고 있습니다. YOLOv8m보다 22% 적은 파라미터로 YOLO11m은 COCO 데이터 세트에서 더 높은 평균 정밀도(mAP)를 달성합니다. 간단히 말해서 YOLO11은 더 적은 리소스를 사용하면서도 더 높은 정밀도로 객체를 인식할 수 있으므로 더 빠르고 안정적입니다.
AI 전문가이든 이제 막 시작했든 YOLO11은 컴퓨터 비전 애플리케이션을 위한 강력하면서도 사용자 친화적인 솔루션을 제공합니다.
Vision AI 모델 훈련은 컴퓨터가 이미지와 비디오를 인식하고 이해하도록 돕는 것을 포함합니다. 그러나 훈련은 시간이 많이 걸리는 프로세스일 수 있습니다. 처음부터 시작하는 대신 전이 학습은 이미 일반적인 패턴을 인식하는 사전 훈련된 모델을 사용하여 속도를 향상시킵니다.
예를 들어 YOLO11은 다양한 일상적인 객체를 포함하는 COCO 데이터 세트에서 이미 학습되었습니다. 이 사전 학습된 모델은 원래 데이터 세트에 포함되지 않은 특정 객체를 감지하도록 추가로 사용자 정의 학습할 수 있습니다.
YOLO11을 사용자 지정 학습하려면 탐지하려는 객체의 이미지가 포함된 레이블이 지정된 데이터 세트가 필요합니다. 예를 들어 식료품점에서 다양한 종류의 과일을 식별하는 모델을 구축하려면 사과, 바나나, 오렌지 등의 레이블이 지정된 이미지로 데이터 세트를 만들어야 합니다. 데이터 세트가 준비되면 YOLO11을 학습하여 배치 크기, 학습률, 에포크와 같은 매개변수를 조정하여 성능을 최적화할 수 있습니다.
이러한 접근 방식을 통해 기업은 제조 결함 부품에서 보존 프로젝트의 야생 동물 종에 이르기까지 모든 것을 감지하도록 YOLO11을 훈련하여 모델을 정확한 요구 사항에 맞게 조정할 수 있습니다.
다음으로 객체 감지의 실제 사용 사례와 다양한 산업을 어떻게 변화시키고 있는지 살펴보겠습니다.
자율 주행 자동차는 객체 탐지와 같은 컴퓨터 비전 작업을 사용하여 안전하게 탐색하고 장애물을 피합니다. 이 기술은 보행자, 다른 차량, 포트홀 및 도로 위험 요소를 인식하는 데 도움이 되어 주변 환경을 더 잘 이해할 수 있도록 합니다. 그들은 환경을 지속적으로 분석하여 신속하게 결정을 내리고 교통 체증 속에서 안전하게 이동할 수 있습니다.
X선, MRI, CT 스캔 및 초음파와 같은 의료 영상 기술은 질병을 진단하고 치료하는 데 도움이 되도록 인체에 대한 매우 상세한 이미지를 만듭니다. 이러한 스캔은 방사선 전문의 및 병리학자와 같은 의사가 질병을 감지하기 위해 신중하게 분석해야 하는 많은 양의 데이터를 생성합니다. 그러나 모든 이미지를 자세히 검토하는 데 시간이 많이 걸릴 수 있으며, 인적 전문가는 피로 또는 시간 제약으로 인해 세부 사항을 놓칠 수 있습니다.
YOLO11과 같은 객체 감지 모델은 장기, 종양 또는 이상과 같은 의료 스캔의 주요 특징을 높은 정확도로 자동 식별하여 지원할 수 있습니다. 사용자 정의 훈련된 모델은 경계 상자로 우려 영역을 강조 표시하여 의사가 잠재적인 문제에 더 빨리 집중할 수 있도록 돕습니다. 이는 작업량을 줄이고 효율성을 개선하며 빠른 통찰력을 제공합니다.
객체 추적은 YOLO11에서 지원하는 컴퓨터 비전 작업으로, 실시간 모니터링 및 보안 개선이 가능합니다. 객체를 식별하고 프레임 간에 움직임을 지속적으로 추적하여 객체 탐지를 기반으로 합니다. 이 기술은 다양한 환경에서 안전을 개선하기 위해 감시 시스템에 널리 사용됩니다.
예를 들어, 학교 및 데이케어 센터에서 객체 추적은 어린이를 모니터링하고 이탈을 방지하는 데 도움이 될 수 있습니다. 보안 애플리케이션에서는 제한 구역에서 침입자를 감지하고, 과밀 또는 의심스러운 행동에 대한 군중을 모니터링하며, 무단 활동이 감지될 때 실시간 경고를 보내는 데 중요한 역할을 합니다. YOLO11 기반 추적 시스템은 객체가 이동함에 따라 추적하여 보안을 강화하고 모니터링을 자동화하며 잠재적 위협에 대한 신속한 대응을 가능하게 합니다.
객체 감지가 다양한 산업에 제공할 수 있는 주요 이점은 다음과 같습니다.
이러한 이점은 객체 탐지가 다양한 사용 사례에 미치는 영향을 강조하지만, 구현과 관련된 과제를 고려하는 것도 중요합니다. 주요 과제는 다음과 같습니다:
객체 감지는 기계가 이미지와 비디오에서 객체를 감지하고 위치를 파악하는 데 도움이 되는 컴퓨터 비전의 획기적인 도구입니다. 자율 주행 자동차에서 의료에 이르기까지 다양한 분야에서 사용되어 작업을 더 쉽고 안전하고 효율적으로 만듭니다. YOLO11과 같은 최신 모델을 통해 기업은 사용자 정의 객체 감지 모델을 쉽게 만들어 특수 컴퓨터 비전 애플리케이션을 만들 수 있습니다.
개인 정보 보호 문제 및 물체가 시야에서 가려지는 것과 같은 몇 가지 어려움이 있지만, 객체 탐지는 신뢰할 수 있는 기술입니다. 작업을 자동화하고, 시각적 데이터를 실시간으로 처리하고, 다른 Vision AI 도구와 통합할 수 있는 기능은 최첨단 혁신의 필수적인 부분입니다.
자세한 내용은 GitHub 저장소를 방문하여 커뮤니티에 참여하십시오. 솔루션 페이지에서 자율 주행 자동차의 AI 및 농업 분야의 컴퓨터 비전과 같은 분야의 혁신을 살펴보세요. YOLO 라이선스 옵션을 확인하고 Vision AI 프로젝트를 실현해 보세요. 🚀