이미지나 동영상에서 물체를 식별하고 위치를 파악하는 YOLO 같은 최첨단 모델을 통해 물체 감지의 강력한 기능을 알아보세요. 실제 활용 사례를 살펴보세요!
객체 감지는 소프트웨어를 가능하게 하는 컴퓨터 비전(CV)의 핵심 기능으로, 소프트웨어 시스템이 이미지가 무엇을 나타내는지 인식할 뿐만 아니라 이미지 내에서 특정 항목의 인스턴스를 찾을 수 있게 해주는 중요한 기능입니다. 표준 분류는 표준 분류는 전체 시각적 입력에 단일 레이블을 할당하는 반면, 객체 감지는 경계선을 예측하여 보다 세분화된 보다 세분화된 이해를 제공합니다. 특정 클래스 레이블과 함께 식별된 엔티티 주변의 경계 상자를 예측하여 보다 세밀한 이해를 제공합니다. 신뢰도 점수를 제공합니다. 이 기술은 감각적인 고급 인공 지능(AI)의 감각적 기반 역할을 하며 기계가 물리적 세계의 복잡성을 인식하고 해석하며 상호 작용할 수 있게 해줍니다. 자동화된 품질 관리부터 공장의 자동화된 품질 관리부터 첨단 감시까지, 이 기술은 비정형 픽셀 데이터를 실행 가능한 인사이트로 변환합니다.
최신 탐지기는 주로 딥 러닝(DL) 아키텍처, 특히 컨볼루션 신경망(CNN)을 사용하여 특징의 공간 계층 구조를 학습합니다. 일반적인 아키텍처는 다음과 같이 구성됩니다. 입력 이미지에서 필수적인 시각적 특징을 추출하는 입력 이미지에서 필수적인 시각적 특징을 추출합니다. 그런 다음 이러한 특징은 감지 헤드에 의해 처리됩니다. 바운딩 박스의 좌표와 클래스 멤버십 확률을 출력합니다.
고성능을 달성하기 위해 모델은 다음과 같은 대규모 라벨이 지정된 컬렉션에 대해 훈련됩니다. COCO 데이터 세트와 같은 대규모 레이블 컬렉션을 기반으로 모델을 학습시킵니다. 추론하는 동안 알고리즘은 종종 동일한 객체에 대해 겹치는 상자를 여러 개 생성합니다. 다음과 같은 기법이 사용됩니다. 비최대 억제(NMS) 와 같은 기술은 를 적용하여 이러한 중복을 필터링하여 신뢰도가 가장 높고 가장 좋은 상자만 유지합니다. 가장 신뢰도가 높은 상자만 유지합니다. 기준 진실.
모델은 일반적으로 두 가지 유형으로 분류됩니다:
객체 감지를 유사한 컴퓨터 비전 작업과 구별하는 것이 중요합니다. 컴퓨터 비전 작업과 구별하는 것이 중요합니다.
물체 감지는 다양한 산업 분야에서 혁신적인 기술을 구현하는 엔진입니다.
다음 코드 스니펫은 사전 학습된 YOLO11 모델을 사용하여 객체 감지를 수행하는 방법을 보여줍니다.
ultralytics 패키지를 사용합니다. 이 간단한 워크플로에서는 모델을 로드하고 이미지에 대한 추론을 실행하여
객체를 식별합니다.
from ultralytics import YOLO
# Load a pretrained YOLO11 model (n-scale for speed)
model = YOLO("yolo11n.pt")
# Run inference on a remote image source
results = model("https://ultralytics.com/images/bus.jpg")
# Display the results with bounding boxes and labels
results[0].show()

