RCNN과 객체 감지에 미치는 영향에 대해 알아보세요. 주요 구성 요소, 애플리케이션, 그리고 고속 RCNN 및 YOLO 같은 기술을 발전시키는 데 있어서의 역할에 대해 다룹니다.
RCNN과 객체 감지에 미치는 영향에 대해 알아보세요. 주요 구성 요소, 애플리케이션, 그리고 고속 RCNN 및 YOLO 같은 기술을 발전시키는 데 있어서의 역할에 대해 다룹니다.
객체 감지는 자율 주행, 감시, 의료 영상과 같은 애플리케이션에서 이미지나 동영상에서 객체를 인식하고 위치를 찾을 수 있는 컴퓨터 비전 작업입니다. Viola-Jones 검출기나 서포트 벡터 머신(SVM)을 사용한 방향성 기울기 히스토그램(HOG)과 같은 이전의 물체 감지 방법은 수작업으로 만든 특징과 슬라이딩 윈도우에 의존했습니다. 이러한 방법은 다양한 모양과 크기의 물체가 여러 개 있는 복잡한 장면에서 물체를 정확하게 detect 데 어려움을 겪는 경우가 많았습니다.
지역 기반 컨볼루션 신경망(R-CNN)은 물체 감지를 처리하는 방식을 변화시켰습니다. 이는 컴퓨터 비전 역사에서 중요한 이정표입니다. 다음과 같은 모델의 작동 방식을 이해하려면 YOLOv8 과 같은 모델이 어떻게 등장했는지 이해하려면 먼저 R-CNN과 같은 모델을 이해해야 합니다.
Ross Girshick과 그의 팀이 개발한 R-CNN 모델 아키텍처는 영역 제안을 생성하고, 사전 훈련된 CNN(Convolutional Neural Network)으로 특징을 추출하고, 객체를 분류하고, 경계 상자를 개선합니다. 다소 어렵게 보일 수 있지만, 이 글을 마치면 R-CNN의 작동 방식과 그 영향력에 대해 명확하게 이해할 수 있을 것입니다. 자세히 살펴보겠습니다!
R-CNN 모델의 객체 감지 프로세스에는 영역 제안 생성, 특징 추출, 객체 분류 및 바운딩 박스 개선의 세 가지 주요 단계가 포함됩니다. 각 단계를 살펴보겠습니다.

첫 번째 단계에서 R-CNN 모델은 이미지를 스캔하여 수많은 영역 제안을 생성합니다. 영역 제안은 객체를 포함할 수 있는 잠재적 영역입니다. Selective Search와 같은 방법은 색상, 질감 및 모양과 같은 이미지의 다양한 측면을 살펴보고 다른 부분으로 나눕니다. Selective Search는 이미지를 더 작은 부분으로 나누어 시작한 다음 유사한 부분을 병합하여 더 큰 관심 영역을 형성합니다. 이 프로세스는 약 2,000개의 영역 제안이 생성될 때까지 계속됩니다.

이러한 영역 제안은 객체가 존재할 가능성이 있는 모든 위치를 식별하는 데 도움이 됩니다. 다음 단계에서 모델은 전체 이미지보다는 이러한 특정 영역에 집중하여 가장 관련성이 높은 영역을 효율적으로 처리할 수 있습니다. 영역 제안을 사용하면 철저함과 계산 효율성 사이의 균형을 맞출 수 있습니다.
R-CNN 모델의 객체 감지 프로세스의 다음 단계는 영역 제안에서 특징을 추출하는 것입니다. 각 영역 제안은 CNN이 예상하는 일관된 크기(예: 224x224 픽셀)로 크기가 조정됩니다. 크기 조정은 CNN이 각 제안을 효율적으로 처리하는 데 도움이 됩니다. 워핑하기 전에 각 영역 제안의 크기가 약간 확장되어 영역 주변에 16픽셀의 추가 컨텍스트를 포함하여 더 나은 특징 추출을 위해 더 많은 주변 정보를 제공합니다.
크기가 조정되면 이러한 영역 제안은 일반적으로 ImageNet 같은 대규모 데이터 세트에 대해 사전 학습된 AlexNet과 같은 CNN에 입력됩니다. CNN은 각 영역을 처리하여 가장자리, 텍스처, 패턴과 같은 중요한 세부 사항을 포착하는 고차원 특징 벡터를 추출합니다. 이러한 특징 벡터는 영역의 필수 정보를 압축합니다. 원시 이미지 데이터를 모델이 추가 분석에 사용할 수 있는 형식으로 변환합니다. 다음 단계에서 물체를 정확하게 분류하고 위치를 파악하는 것은 시각적 정보를 의미 있는 데이터로 변환하는 이 중요한 작업에 달려 있습니다.

세 번째 단계는 이러한 영역 내의 객체를 classify 것입니다. 즉, 제안서 내에서 발견된 각 객체의 카테고리 또는 클래스를 결정합니다. 그런 다음 추출된 특징 벡터는 머신 러닝 분류기를 통과합니다.
R-CNN의 경우 SVM(Support Vector Machine)이 일반적으로 이 목적으로 사용됩니다. 각 SVM은 특징 벡터를 분석하고 특정 영역에 해당 클래스의 인스턴스가 포함되어 있는지 여부를 결정하여 특정 객체 클래스를 인식하도록 훈련됩니다. 기본적으로 모든 객체 범주에 대해 해당 특정 객체에 대한 각 영역 제안을 확인하는 전용 분류기가 있습니다.
학습 과정에서 분류기는 긍정 및 부정 샘플로 레이블이 지정된 데이터를 받습니다.
분류기는 이러한 샘플을 구별하는 방법을 학습합니다. 경계 상자 회귀는 초기에 제안된 경계 상자를 조정하여 실제 객체 경계와 더 잘 일치시켜 감지된 객체의 위치와 크기를 더욱 세분화합니다. R-CNN 모델은 분류 및 경계 상자 회귀를 결합하여 객체를 식별하고 정확하게 찾을 수 있습니다.

분류 및 경계 상자 회귀 단계가 끝나면 모델은 동일한 객체에 대해 겹치는 경계 상자를 여러 개 생성하는 경우가 많습니다. 이러한 검출을 세분화하여 가장 정확한 박스를 유지하기 위해 비최대 억제NMS가 적용됩니다. 이 모델은 NMS 적용하여 중복 및 겹치는 박스를 제거하고 가장 확실한 탐지만 유지합니다.
NMS 모든 경계 상자의 신뢰도 점수(감지된 객체가 실제로 존재할 가능성을 나타내는 점수)를 평가하고 점수가 높은 상자와 상당히 겹치는 상자를 억제하는 방식으로 작동합니다.

다음은 NMS 단계에 대한 분석입니다:
종합하면, R-CNN 모델은 영역 제안을 생성하고, CNN으로 특징을 추출하고, 경계 상자 회귀를 통해 객체를 분류하고 위치를 구체화하며, 가장 정확한 탐지만을 유지하는 비최대 억제NMS를 사용하여 객체를 탐지합니다.
R-CNN은 정확도와 성능을 크게 향상시킨 새로운 접근 방식을 도입했기 때문에 객체 감지 역사에서 획기적인 모델입니다. R-CNN 이전에는 객체 감지 모델이 속도와 정밀도의 균형을 맞추는 데 어려움을 겪었습니다. R-CNN의 영역 제안 생성 방법과 특징 추출을 위한 CNN 사용은 이미지 내에서 객체의 정확한 위치 파악 및 식별을 가능하게 합니다.
R-CNN은 효율성과 정확성을 더욱 향상시킨 Fast R-CNN, Faster R-CNN 및 Mask R-CNN과 같은 모델의 길을 열었습니다. 딥 러닝과 영역 기반 분석을 결합함으로써 R-CNN은 해당 분야에서 새로운 표준을 설정하고 다양한 실제 애플리케이션에 대한 가능성을 열었습니다.
R-CNN의 흥미로운 사용 사례는 의료 영상 분야입니다. R-CNN 모델은 MRI 및 CT 스캔과 같은 의료 스캔에서 뇌종양과 같은 다양한 유형의 종양을 detect classify 데 사용되었습니다. 의료 영상에서 R-CNN 모델을 사용하면 진단 정확도가 향상되고 방사선 전문의가 악성 종양을 조기에 식별하는 데 도움이 됩니다. 작은 초기 단계의 종양도 detect 수 있는 R-CNN의 능력은 암과 같은 질병의 치료와 예후에 큰 차이를 만들 수 있습니다.

R-CNN 모델은 종양 탐지 외에도 다른 의료 영상 작업에도 적용할 수 있습니다. 예를 들어 골절을 식별하고, 안구 스캔에서 망막 질환을 detect , 폐렴 및 코로나19와 같은 질환에 대한 폐 이미지를 분석할 수 있습니다. 어떤 의학적 문제든 조기 발견은 더 나은 환자 치료 결과로 이어질 수 있습니다. 의료진은 이상 징후를 식별하고 위치를 파악하는 데 R-CNN의 정밀도를 적용함으로써 의료 진단의 신뢰성과 속도를 향상시킬 수 있습니다. 물체 감지를 통해 진단 프로세스를 간소화하면 환자는 적시에 정확한 치료 계획을 세울 수 있습니다.
R-CNN은 인상적이지만 높은 계산 복잡성과 느린 추론 시간과 같은 단점이 있습니다. 이러한 단점 때문에 R-CNN 모델은 실시간 애플리케이션에 적합하지 않습니다. 영역 제안과 분류를 별개의 단계로 분리하면 성능이 저하될 수 있습니다.
수년에 걸쳐 이러한 문제점을 해결하는 다양한 객체 탐지 모델이 등장했습니다. Fast R-CNN은 영역 제안과 CNN 특징 추출을 단일 단계로 결합하여 프로세스 속도를 높입니다. Faster R-CNN은 영역 제안 네트워크(RPN)를 도입하여 제안 생성을 간소화하고, Mask R-CNN은 픽셀 수준 분할을 추가하여 더욱 상세한 탐지를 제공합니다.

Faster R-CNN과 거의 같은 시기에, 실시간 객체 감지를 발전시키기 시작한 YOLO (You Only Look Once) 시리즈가 등장했습니다. YOLO 모델은 네트워크를 한 번 통과할 때 바운딩 박스와 클래스 확률을 예측합니다. 예를 들어 Ultralytics YOLOv8 은 많은 컴퓨터 비전 작업을 위한 고급 기능으로 향상된 정확도와 속도를 제공합니다.
RCNN은 딥러닝이 물체 감지를 어떻게 변화시킬 수 있는지 보여주며 컴퓨터 비전의 판도를 바꿨습니다. 이 기술의 성공은 이 분야에서 많은 새로운 아이디어에 영감을 주었습니다. RCNN의 결함을 보완하기 위해 Faster R-CNN 및 YOLO 같은 최신 모델이 등장했지만, RCNN의 공헌은 기억해야 할 중요한 이정표입니다.
연구가 계속 진행됨에 따라 훨씬 더 훌륭하고 빠른 객체 탐지 모델을 보게 될 것입니다. 이러한 발전은 기계가 세상을 이해하는 방식을 개선할 뿐만 아니라 많은 산업 분야에서 발전을 이끌 것입니다. 객체 탐지의 미래는 매우 밝습니다!
AI에 대해 계속 알아보고 싶으신가요? Ultralytics 커뮤니티에 가입하세요! 최신 인공 지능 혁신을 살펴보려면 GitHub 리포지토리를 살펴보세요. 농업, 제조 등 다양한 분야에 걸친 저희의 AI 솔루션을 확인해 보세요. 저희와 함께 배우고 발전하세요!