욜로 비전 선전
선전
지금 참여하기

SharkEye는 객체 감지를 위해 Ultralytics YOLOv8을 사용합니다.

Abirami Vina

5분 분량

2025년 1월 28일

YOLO Vision 2024에서 발표된 SharkEye가 Ultralytics YOLOv8을 활용하여 실시간 객체 감지 및 해변 안전을 어떻게 향상시키는지 알아보세요.

농장에서 풀을 뜯는 소든 해안 근처에서 움직이는 상어든, 자연 서식지에서 동물을 모니터링하는 것은 항상 그들의 안전과 웰빙에 중요했습니다. 하지만 수동으로 관찰하는 것은 쉽지 않습니다. 관찰자는 행동이나 움직임의 변화를 면밀히 주시해야 하므로 종종 몇 시간 동안 인내심을 갖고 주의를 집중해야 합니다. 그렇다 하더라도 미묘하지만 중요한 징후를 놓치기 쉽습니다.

인공 지능(AI)이 개입하면서 이 프로세스는 더욱 빠르고 스마트하며 효율적으로 변모하여 인간 관찰자의 부담을 줄이면서 정확성을 향상시키고 있습니다. 특히, 컴퓨터 비전은 동물을 추적하고, 위험을 감지하고, 실시간으로 의사 결정을 내리는 데 사용될 수 있습니다. 이전에는 몇 시간이 걸렸던 작업이 이제 몇 분 만에 완료되어 동물 행동을 이해하는 새로운 방법을 열어줍니다.

Ultralytics에서 주최하는 연례 하이브리드 행사인 YOLO Vision 2024(YV24)에서 전문가와 혁신가들이 모여 AI가 일상적인 문제 해결에 어떻게 활용되는지 논의했습니다. 발표된 주제 중 일부는 실시간 객체 탐지 및 동물 모니터링의 발전과 같이 AI가 다양한 분야에서 안전과 효율성을 어떻게 향상시키는지 보여주었습니다.

이 행사에서 가장 중요한 부분 중 하나는 AI Master Group의 설립자인 Jim Griffin의 강연이었습니다. 그는 Vision AI가 상어가 해안에 너무 가까이 오기 전에 감지하여 해변을 더 안전하게 만드는 방법을 보여주었습니다. 그는 Ultralytics YOLOv8이라는 최첨단 컴퓨터 비전 모델을 사용하여 파도가 거칠고 눈부심이 심하며 수중 장애물과 같은 까다로운 조건에서도 실시간으로 상어를 정확하게 식별하는 방법을 설명했습니다.

본 문서에서는 SharkEye 프로젝트를 자세히 살펴보고 Jim의 강연에서 얻은 흥미로운 통찰력을 공유합니다.

SharkEye 알아보기: 컴퓨터 비전 애플리케이션

Jim은 캘리포니아의 유명한 서핑 명소인 파다로 해변을 소개하며 강연을 시작했습니다. 이곳은 서퍼와 상어가 종종 같은 물에서 활동하는 곳입니다. 그는 상어 감지의 실제적인 어려움을 강조하면서 "물론 상어가 여러분을 물면 상어를 감지하기 쉽습니다. 그래서 저희가 하고 싶었던 것은 사전에 상어를 식별하는 것이었습니다."라고 말했습니다.

__wf_reserved_inherit
Fig 1. YOLO Vision 2024 무대에 오른 Jim.

SharkEye는 캘리포니아 대학교 산타바바라 캠퍼스의 지원을 받아 이 문제를 해결하기 위해 만들어졌습니다. Jim은 고해상도 AI 카메라가 장착된 드론을 사용하여 해수면 약 200피트 상공에서 비행하며 실시간으로 바다를 스캔하는 방법에 대해 설명했습니다.

상어가 감지되면 구조대원, 서핑 샵 주인, 업데이트를 신청한 사람을 포함하여 약 80명에게 SMS 알림이 전송됩니다. Jim은 이러한 즉각적인 알림이 해안 근처에 상어가 있을 때 신속하게 대응하여 해변 방문객을 더 안전하게 지킬 수 있다고 지적했습니다.

Jim은 또한 SharkEye가 사용자가 상어 감지 통계를 실시간으로 볼 수 있는 라이브 대시보드를 제공한다고 언급했습니다. 예를 들어, 12주 동안 시스템은 2마리의 큰 상어와 15마리의 작은 상어를 식별하여 주당 평균 1마리 이상의 상어를 감지했습니다.

이어서 그는 SharkEye 프로젝트를 이끈 과학자 Neil Nathan을 소개했습니다. 컴퓨터 과학이 아닌 환경학을 전공했음에도 불구하고 Nathan은 프로젝트를 성공적으로 이끌었습니다. Jim은 SharkEye에 사용된 것과 같은 최신 AI 도구는 접근성이 뛰어나 비기술적 배경을 가진 사람들도 영향력 있는 솔루션을 개발할 수 있도록 설계되었다는 점을 강조했습니다.

Ultralytics YOLOv8을 사용하여 상어 감지

좀 더 자세히 들어가서, Jim은 SharkEye의 내부 구조와 상어 감지 솔루션이 단순한 객체 감지 작업에만 국한되지 않았음을 설명했습니다. 상어로 쉽게 오인될 수 있는 떠다니는 해초와 같이 예측 불가능한 역동적인 조건들을 처리해야 했습니다. 정지된 물체를 식별하는 것과는 달리, 상어를 식별하려면 정확성과 적응성이 필요하며, YOLOv8이 이상적인 선택입니다.

YOLOv8의 또 다른 장점은 클라우드 서버에 의존하지 않고도 드론에 배포할 수 있다는 것입니다. 짐은 이러한 접근 방식 덕분에 SharkEye가 즉각적인 경고를 보낼 수 있게 되었으며, 이는 예측 불가능한 해양 조건에서 시기적절한 대응을 보장하는 데 필수적인 부분이라고 설명했습니다.

단 6줄의 코드로 객체 탐지

Jim은 SharkEye의 작동 방식과 그 뒤에 숨겨진 협력적 노력을 강조한 후 라이브 데모를 선보였습니다.

Jim Griffin은 청중에게 익숙한 예제인 Ultralytics YOLO 모델의 "hello world" 코드 스니펫을 소개하면서 라이브 데모를 시작했습니다. 그는 단 6줄의 Python 코드로 사전 훈련된 Ultralytics YOLOv8 모델이 이미지에서 버스를 쉽게 감지할 수 있는 방법을 보여주었습니다. 

__wf_reserved_inherit
Fig 2. YOLO Vision 2024에서 Jim의 데모 시연.

그의 데모에서는 드론과 같은 저전력 장치를 위한 경량 버전인 YOLOv8 Nano 모델을 사용했습니다. 동일한 모델이 실시간 상어 감지를 위해 SharkEye에서 사용되었습니다. 

더 많은 맥락을 제공하기 위해 Jim은 데모의 모델이 널리 사용되는 COCO 데이터 세트의 더 작은 하위 집합인 COCO128에서 훈련되고 있다고 언급했습니다. COCO 데이터 세트에는 80개의 서로 다른 객체 범주에 걸쳐 20,000개 이상의 이미지가 포함되어 있습니다. COCO128은 빠른 데모에는 적합하지만 SharkEye는 실제 시나리오의 복잡성을 처리할 수 있는 응용 프로그램별 상어 감지 데이터 세트가 더 필요하다고 지적했습니다.

SharkEye를 위한 YOLOv8 커스텀 트레이닝 

Jim에 따르면 SharkEye 프로젝트에서 가장 어려운 부분은 AI 모델을 훈련하는 것이 아니라 올바른 데이터를 수집하는 것이었습니다. 그는 "이 프로젝트의 주요 작업은 AI가 아니었습니다. 이 프로젝트의 주요 작업은 5년 동안 드론을 날려 비디오에서 이미지를 추출하고 적절하게 태깅하는 것이었습니다."라고 말했습니다.

그는 팀이 Padaro Beach에서 15,000장의 이미지를 수집한 방법을 설명했습니다. 각 이미지는 상어, 해초 및 물 속의 다른 물체를 구별하기 위해 수동으로 레이블을 지정해야 했습니다. 그 과정은 느리고 힘들었지만 이후의 모든 것의 토대를 마련했습니다.

__wf_reserved_inherit
그림 3. 드론을 사용하여 상어 이미지를 캡처하여 실시간 객체 탐지를 수행합니다.

데이터 세트가 준비되자마자 Ultralytics YOLOV8이 맞춤형으로 훈련되었습니다. Jim은 "실제 훈련은 어려운 부분이 아니었습니다. T4 GPU[그래픽 처리 장치]에서 20시간밖에 걸리지 않았습니다."라고 말했습니다. 그는 또한 A100 GPU와 같은 더 강력한 하드웨어를 사용하면 시간이 5시간으로 단축될 수 있다고 덧붙였습니다.

SharkEye 평가: 재현율보다 정확도

다음으로, Jim은 SharkEye의 성능이 어떻게 평가되었는지 논의했습니다. 그는 핵심 지표가 시스템이 실제 상어를 얼마나 정확하게 식별하는지를 나타내는 정확도라고 설명했습니다. SharkEye는 92%의 인상적인 정확도를 달성하여 복잡한 해양 환경에서 상어를 정확하게 식별하는 데 매우 효과적인 모델임을 입증했습니다.

정밀도의 중요성에 대해 더 자세히 설명하면서 Jim은 왜 이 경우에 재현율보다 정밀도가 더 중요한지 밝혔습니다. 그는 "대부분의 경우 사람들은 재현율에 관심이 많으며, 특히 긍정적인 사례를 놓치는 것이 치명적일 수 있는 의료 분야에서 그렇습니다. 하지만 이 경우에는 상어가 얼마나 있는지 알 수 없었기 때문에 우리가 중요하게 생각한 것은 정밀도였습니다."라고 설명했습니다. SharkEye는 정밀도에 집중하여 오경보를 최소화함으로써 인명 구조원 및 기타 대응 요원이 신속하게 조치를 취할 수 있도록 했습니다.

__wf_reserved_inherit
Fig 4. YOLO Vision 2024에서 SharkEye를 선보이는 Jim.

그는 AI를 인간의 성능과 비교하면서 SharkEye의 92% 정확도가 인간 전문가의 60% 정확도를 훨씬 능가한다고 언급하며 강연을 마무리했습니다. 그는 이러한 격차를 강조하며 "우리는 인간이기 때문입니다. 당신이나 제가 아무리 전문가라 할지라도 하루 종일 화면 앞에 앉아 상어를 찾아야 한다면 결국 정신이 딴 데로 팔릴 것입니다."라고 말했습니다. 사람들과 달리 AI 모델은 피곤하거나 산만해지지 않으므로 지속적인 모니터링이 필요한 작업에 안정적인 솔루션이 됩니다.

Ultralytics YOLO11: 최신 YOLO

Jim Griffin의 강연에서 나온 “6줄의 코드가 언젠가 당신의 생명을 구할 수 있습니다.”라는 흥미로운 인용문은 AI가 얼마나 발전되었으면서도 접근성이 높아졌는지를 완벽하게 보여줍니다. Ultralytics YOLO 모델은 이를 염두에 두고 만들어졌으며 모든 규모의 개발자와 기업이 최첨단 컴퓨터 비전 기술에 접근할 수 있도록 지원합니다. Ultralytics YOLO11은 더 빠른 추론과 더 높은 정확도로 이를 기반으로 합니다. 

다음은 YOLO11의 차별화 요소에 대한 간략한 소개입니다.

  • 재설계된 아키텍처: 향상된 백본 및 넥 아키텍처는 더 나은 특징 추출과 향상된 정밀도를 가능하게 합니다.
  • 사용 편의성: Ultralytics HUB와 같은 Python 코딩 또는 노코드 도구를 통해 액세스할 수 있습니다.
  • 다양한 작업에 대한 유연성: YOLO11은 객체 감지, 인스턴스 분할, 이미지 분류, 추적, 포즈 추정 및 OBB(Oriented Bounding Box)와 같은 컴퓨터 비전 작업을 지원합니다.
  • 향상된 정확도: YOLO11은 COCO 데이터 세트에서 YOLOv8m에 비해 평균 평균 정밀도(mAP)가 22% 더 높아 더욱 정확한 감지를 제공합니다.

이러한 기능 덕분에 YOLO11은 농장이든 야생이든 역동적인 환경에서 동물 행동을 추적하는 데 매우 적합합니다.

주요 내용

Vision AI의 발전은 다양한 분야에 실용적인 도구를 제공함으로써 실제 문제 해결을 더 쉽게 만들고 있습니다. 예를 들어 YOLO11과 같은 컴퓨터 비전 모델은 열악한 조건에서도 동물의 실시간 모니터링 및 추적에 사용할 수 있습니다. 

YV24에서 Jim Griffin의 기조 연설은 YOLOv8이 최소한의 코딩으로 복잡한 문제를 해결하는 데 어떻게 사용될 수 있는지 보여주었습니다. 드론과 AI를 결합하여 실시간 상어 감지를 수행하는 SharkEye 프로젝트는 기술이 해변 안전을 어떻게 향상시킬 수 있는지 보여주는 좋은 예시였습니다. 

접근 가능한 AI가 어떻게 다양한 배경을 가진 사람들이 효과적인 솔루션을 만들 수 있도록 지원하는지에 대한 매혹적인 사례 연구였습니다. AI가 계속 발전함에 따라 산업을 변화시키고 개인이 잠재력을 활용하여 세상을 더 안전하고 스마트하며 효율적인 곳으로 만들 수 있도록 지원합니다.

커뮤니티에 참여하고 GitHub 저장소를 탐색하여 AI에 대해 자세히 알아보세요. 농업 분야의 컴퓨터 비전부터 자율 주행 자동차의 AI에 이르기까지, 이러한 기술이 어떻게 혁신을 주도하는지 확인하세요. 라이선스 옵션을 확인하고 지금 바로 AI 프로젝트를 시작해 보세요!

함께 미래의 AI를 만들어 갑시다!

미래의 머신러닝 여정을 시작하세요

무료로 시작하기
클립보드에 링크가 복사되었습니다.