객체 탐지의 기본 원리를 살펴보세요. Ultralytics 타의 추종을 불허하는 속도와 정확도로 실시간으로 객체를 식별하고 위치를 파악하는 방법을 알아보세요.
객체 탐지는 컴퓨터 비전(CV) 분야에서 핵심 기술로, 컴퓨터 시스템이 시각 데이터 내에서 특정 항목을 식별하고 위치를 파악할 수 있게 합니다. 전체 사진에 단일 레이블을 할당하는 단순한 이미지 분류 작업과 달리, 객체 탐지는 객체의 종류(예: "사람", "자동차", "개")와 공간적 위치를 동시에 예측함으로써 세분화된 이해를 제공합니다. 이 위치는 일반적으로 객체를 둘러싼 직사각형 경계 상자로 표현되며, 모델의 확신을 나타내는 신뢰도 점수와 함께 제공됩니다. 이러한 인식과 위치 파악이라는 이중 기능은 현대 인공지능(AI)애플리케이션의 감각적 기반 역할을 하여 기계가 환경과 의미 있게 상호작용할 수 있게 합니다.
현대 탐지기는 입력 이미지에서 복잡한 특징을 추출하기 위해 딥 러닝(DL) 아키텍처, 특히 컨볼루션 신경망(CNN)에 크게 의존합니다. 이 과정은 훈련 단계로 시작되며, 모델은 COCO 같은 방대한 라벨링된 데이터 집합을 사용하여 패턴을 인식하는 법을 학습합니다. 이 단계에서 알고리즘은 예측 오류를 최소화하기 위해 모델 가중치를 최적화합니다.
모델이 추론을 위해 배포되면 새로운 이미지를 스캔하여 잠재적 객체를 제안합니다. 이후 고급 알고리즘이 비최대 억제(NMS) 를 적용하여 중복 탐지를 걸러내며, 각 고유 개체가 단 한 번만 강조되도록 보장합니다. 이러한 예측의 정확도는 일반적으로 예측된 박스와 실제 객체 간의 중첩을 측정하는 교집합 대비 전체(IoU) 지표를 사용하여 평가됩니다. 최근 발전으로 YOLO26과 같은 종단간 아키텍처가 등장했으며, 이는 이 파이프라인을 간소화하여 뛰어난 속도와 에지 디바이스에서의 실시간 추론 능력을 제공합니다.
프로젝트에 적합한 도구를 선택하기 위해서는 객체 탐지를 관련 개념과 구분하는 것이 매우 중요합니다:
물체 감지의 다용도성은 주요 산업 전반에 걸쳐 혁신을 주도합니다. 자동차 분야에서는 자율주행차의 인공지능이 보행자, 교통 표지판 및 다른 차량을 즉시 식별하여 안전하게 주행하기 위해 감지 모델에 크게 의존합니다. 이러한 시스템은 차량 내장 카메라의 영상 데이터를 처리함으로써 사고를 방지하는 순간적인 결정을 내립니다.
소매업 분야의 인공지능(AI)에서도 또 다른 주요 활용 사례를 찾아볼 수 있습니다. 자동 결제 시스템과 스마트 재고 관리 로봇은 물체 감지 기술을 활용해 선반을 스캔하고 제품을 인식하며, detect 부족이나 잘못 배치된 품목을 detect . 이러한 자동화는 공급망을 효율화하고 제품의 지속적인 공급을 보장함으로써 고객 경험을 향상시킵니다.
개발자는 다음을 사용하여 탐지 워크플로를 쉽게 구현할 수 있습니다. ultralytics Python . 다음 예제는 사전 훈련된 모델을 로드하는 방법을 보여줍니다. YOLO26 모델
이미지에 대해 추론을 수행합니다.
from ultralytics import YOLO
# Load the latest YOLO26n model (nano version for speed)
model = YOLO("yolo26n.pt")
# Run inference on an image from a URL
results = model("https://ultralytics.com/images/bus.jpg")
# Display the results with bounding boxes
results[0].show()
운영 규모를 확장하려는 팀을 위해 Ultralytics 데이터 주석 작업, 클라우드 기반 맞춤형 모델 훈련, 다양한 형식(예: ONNX)으로의 배포를 위한 포괄적인 환경을 제공합니다. ONNX 또는 TensorRT과 같은 다양한 형식으로 배포할 수 있는 포괄적인 환경을 제공합니다. 이러한 플랫폼을 활용하면 MLOps 라이프사이클이 간소화되어 엔지니어들이 인프라 관리보다는 애플리케이션 개선에 집중할 수 있습니다.