Yolo 비전 선전
선전
지금 참여하기

SharkEye는 물체 감지를 위해 Ultralytics YOLOv8 사용합니다.

Abirami Vina

5분 분량

2025년 1월 28일

YOLO Vision 2024에서 소개된 SharkEye가 실시간 물체 감지 및 해변 안전을 위해 Ultralytics YOLOv8 활용하는 방법을 알아보세요.

농장에서 풀을 뜯는 소든 해안 근처에서 움직이는 상어든, 자연 서식지에서 동물을 모니터링하는 것은 항상 그들의 안전과 웰빙에 중요했습니다. 하지만 수동으로 관찰하는 것은 쉽지 않습니다. 관찰자는 행동이나 움직임의 변화를 면밀히 주시해야 하므로 종종 몇 시간 동안 인내심을 갖고 주의를 집중해야 합니다. 그렇다 하더라도 미묘하지만 중요한 징후를 놓치기 쉽습니다.

인공지능(AI)의 등장으로 이 과정은 더 빠르고, 더 똑똑해지고, 훨씬 더 효율적이 되어 관찰자의 부담을 줄이면서 정확도는 향상되고 있습니다. 특히 컴퓨터 비전은 동물을 track , 위험을 발견하고, 실시간으로 의사 결정을 내리는 데 사용할 수 있습니다. 몇 시간이 걸리던 작업을 이제 몇 분 만에 완료할 수 있어 동물의 행동을 이해하는 새로운 방법이 열렸습니다.

Ultralytics 주최하는 연례 하이브리드 행사인 YOLO 비전 2024(YV24)에서는 전문가와 혁신가들이 모여 AI가 일상적인 문제를 어떻게 해결하고 있는지 살펴보는 시간을 가졌습니다. 실시간 물체 감지 및 동물 모니터링의 발전 등 다양한 분야에서 AI가 어떻게 안전과 효율성을 향상시키고 있는지를 보여주는 주제들이 소개되었습니다.

이 행사의 하이라이트 중 하나는 AI 마스터 그룹의 창립자인 짐 그리핀(Jim Griffin)의 강연으로, 그는 비전 AI가 어떻게 상어가 해안에 너무 가까이 오기 전에 감지하여 해변을 더 안전하게 만드는지 시연했습니다. 그는 그들이 어떻게 Ultralytics YOLOv8을 사용하여 거친 파도, 눈부심, 수중 장애물 등 까다로운 조건에서도 실시간으로 상어를 정확하게 식별하는 방법을 설명했습니다.

본 문서에서는 SharkEye 프로젝트를 자세히 살펴보고 Jim의 강연에서 얻은 흥미로운 통찰력을 공유합니다.

SharkEye 알아보기: 컴퓨터 비전 애플리케이션

짐은 서퍼와 상어가 같은 바다를 자주 공유하는 캘리포니아의 유명한 서핑 장소인 파다로 해변을 소개하며 강연을 시작했습니다. 그는 상어 탐지의 실제 어려움을 강조하며 "물론 상어에게 물린 후에야 상어를 detect 쉽지만, 우리가 하고 싶었던 것은 상어를 미리 파악하는 것이었습니다."라고 말했습니다.

__wf_reserved_inherit
그림 1. YOLO 비전 2024에서 무대에 선 Jim.

SharkEye는 캘리포니아 대학교 산타바바라 캠퍼스의 지원을 받아 이 문제를 해결하기 위해 만들어졌습니다. Jim은 고해상도 AI 카메라가 장착된 드론을 사용하여 해수면 약 200피트 상공에서 비행하며 실시간으로 바다를 스캔하는 방법에 대해 설명했습니다.

상어가 감지되면 구조대원, 서핑 샵 주인, 업데이트를 신청한 사람을 포함하여 약 80명에게 SMS 알림이 전송됩니다. Jim은 이러한 즉각적인 알림이 해안 근처에 상어가 있을 때 신속하게 대응하여 해변 방문객을 더 안전하게 지킬 수 있다고 지적했습니다.

Jim은 또한 SharkEye가 사용자가 상어 감지 통계를 실시간으로 볼 수 있는 라이브 대시보드를 제공한다고 언급했습니다. 예를 들어, 12주 동안 시스템은 2마리의 큰 상어와 15마리의 작은 상어를 식별하여 주당 평균 1마리 이상의 상어를 감지했습니다.

이어서 그는 SharkEye 프로젝트를 이끈 과학자 Neil Nathan을 소개했습니다. 컴퓨터 과학이 아닌 환경학을 전공했음에도 불구하고 Nathan은 프로젝트를 성공적으로 이끌었습니다. Jim은 SharkEye에 사용된 것과 같은 최신 AI 도구는 접근성이 뛰어나 비기술적 배경을 가진 사람들도 영향력 있는 솔루션을 개발할 수 있도록 설계되었다는 점을 강조했습니다.

Ultralytics YOLOv8 사용하여 상어 detect

짐은 더 자세히 설명하면서 SharkEye의 내부 구조와 상어 탐지 솔루션이 단순한 물체 탐지 작업만 하는 것이 아니라는 점을 자세히 설명했습니다. 상어로 오인하기 쉬운 해초처럼 역동적이고 예측할 수 없는 상황을 처리해야 했습니다. 정지된 물체를 발견하는 것과 달리 상어를 식별하려면 정밀도와 적응력이 필요하기 때문에 YOLOv8 이상적인 선택이었습니다.

YOLOv8 또 다른 장점은 클라우드 서버에 의존하지 않고 드론에 배포할 수 있다는 점입니다. 짐은 이러한 접근 방식을 통해 예측할 수 없는 해양 환경에서 적시에 대응하는 데 필수적인 즉각적인 경고를 보낼 수 있었다고 설명했습니다.

단 6줄의 코드로 객체 탐지

Jim은 SharkEye의 작동 방식과 그 뒤에 숨겨진 협력적 노력을 강조한 후 라이브 데모를 선보였습니다.

짐 그리핀은 청중에게 익숙한 예제인 Ultralytics YOLO 모델의"안녕하세요" 코드 스니펫을 안내하는 것으로 라이브 데모를 시작했습니다. 그는 단 6줄의 Python 코드만으로 사전 학습된 Ultralytics YOLOv8 모델이 어떻게 이미지에서 버스를 손쉽게 detect 수 있는지 보여주었습니다. 

__wf_reserved_inherit
그림 2. YOLO Vision 2024에서 Jim의 데모.

그의 데모에는 드론과 같은 저전력 디바이스를 위한 경량 버전인 YOLOv8 Nano 모델이 사용되었습니다. 실시간 상어 탐지를 위해 SharkEye에서도 동일한 모델이 사용되었습니다. 

더 자세한 맥락을 설명하기 위해 Jim은 데모의 모델이 널리 사용되는 COCO 데이터 세트의 작은 하위 집합인 COCO128 학습되고 있다고 언급했습니다. COCO 데이터 세트에는 80개의 서로 다른 객체 범주에 걸쳐 20,000개 이상의 이미지가 포함되어 있습니다. 그는 COCO128 빠른 데모에는 효과적이지만, SharkEye에는 실제 시나리오의 복잡성을 처리할 수 있는 애플리케이션별 상어 탐지 데이터 세트가 더 강력해야 한다고 지적했습니다.

SharkEye용 맞춤형 학습 YOLOv8 

Jim에 따르면 SharkEye 프로젝트에서 가장 어려운 부분은 AI 모델을 훈련하는 것이 아니라 올바른 데이터를 수집하는 것이었습니다. 그는 "이 프로젝트의 주요 작업은 AI가 아니었습니다. 이 프로젝트의 주요 작업은 5년 동안 드론을 날려 비디오에서 이미지를 추출하고 적절하게 태깅하는 것이었습니다."라고 말했습니다.

그는 팀이 Padaro Beach에서 15,000장의 이미지를 수집한 방법을 설명했습니다. 각 이미지는 상어, 해초 및 물 속의 다른 물체를 구별하기 위해 수동으로 레이블을 지정해야 했습니다. 그 과정은 느리고 힘들었지만 이후의 모든 것의 토대를 마련했습니다.

__wf_reserved_inherit
그림 3. 드론을 사용하여 상어 이미지를 캡처하여 실시간 객체 탐지를 수행합니다.

데이터 세트가 준비되자, Ultralytics YOLOV8 이 데이터에 대한 맞춤형 학습을 진행했습니다. 짐은 "실제 훈련은 어렵지 않았으며, T4 GPU[그래픽 처리 장치]에서 20시간밖에 걸리지 않았습니다."라고 말했습니다. 또한 그는 A100 GPU와 같은 더 강력한 하드웨어를 사용했다면 시간을 5시간까지 단축할 수 있었다고 덧붙였습니다.

SharkEye 평가: 재현율보다 정확도

다음으로, Jim은 SharkEye의 성능이 어떻게 평가되었는지 논의했습니다. 그는 핵심 지표가 시스템이 실제 상어를 얼마나 정확하게 식별하는지를 나타내는 정확도라고 설명했습니다. SharkEye는 92%의 인상적인 정확도를 달성하여 복잡한 해양 환경에서 상어를 정확하게 식별하는 데 매우 효과적인 모델임을 입증했습니다.

정밀도의 중요성에 대해 더 자세히 설명하면서 Jim은 왜 이 경우에 재현율보다 정밀도가 더 중요한지 밝혔습니다. 그는 "대부분의 경우 사람들은 재현율에 관심이 많으며, 특히 긍정적인 사례를 놓치는 것이 치명적일 수 있는 의료 분야에서 그렇습니다. 하지만 이 경우에는 상어가 얼마나 있는지 알 수 없었기 때문에 우리가 중요하게 생각한 것은 정밀도였습니다."라고 설명했습니다. SharkEye는 정밀도에 집중하여 오경보를 최소화함으로써 인명 구조원 및 기타 대응 요원이 신속하게 조치를 취할 수 있도록 했습니다.

__wf_reserved_inherit
그림 4. YOLO 비전 2024에서 SharkEye를 소개하는 Jim.

그는 AI를 인간의 성능과 비교하면서 SharkEye의 92% 정확도가 인간 전문가의 60% 정확도를 훨씬 능가한다고 언급하며 강연을 마무리했습니다. 그는 이러한 격차를 강조하며 "우리는 인간이기 때문입니다. 당신이나 제가 아무리 전문가라 할지라도 하루 종일 화면 앞에 앉아 상어를 찾아야 한다면 결국 정신이 딴 데로 팔릴 것입니다."라고 말했습니다. 사람들과 달리 AI 모델은 피곤하거나 산만해지지 않으므로 지속적인 모니터링이 필요한 작업에 안정적인 솔루션이 됩니다.

Ultralytics YOLO11: 최신 YOLO

"6줄의 코드가 언젠가 당신의 생명을 구할 수 있다"는 짐 그리핀의 강연에 나오는 흥미로운 인용문은 AI가 얼마나 발전했으면서도 접근성이 높아졌는지를 완벽하게 포착합니다. 이러한 점을 염두에 두고 개발된 Ultralytics YOLO 모델은 모든 규모의 개발자와 비즈니스가 최첨단 컴퓨터 비전 기술을 이용할 수 있게 해줍니다. Ultralytics YOLO11 은 이를 기반으로 더 빠른 추론과 더 높은 정확도를 제공합니다. 

YOLO11 차별화 요소를 한 눈에 살펴보세요:

  • 재설계된 아키텍처: 향상된 백본 및 넥 아키텍처는 더 나은 특징 추출과 향상된 정밀도를 가능하게 합니다.
  • 사용 편의성: Python 코딩 또는 Ultralytics HUB와 같은 노코드 도구를 통해 액세스할 수 있습니다.
    ↪f_200D↩
  • 작업 전반에 걸친 유연성: YOLO11 객체 감지, 인스턴스 분할, 이미지 분류, 추적, 포즈 추정, 방향성 바운딩 박스(OBB) 등의 컴퓨터 비전 작업을 지원합니다.
    ↪f_200D↩
  • 정확도 향상: YOLO11 COCO 데이터 세트에서 YOLOv8m 비해 22% 더 높은 평균 정밀도mAP를 달성하여 더욱 정밀한 탐지를 제공합니다.

이러한 기능 덕분에 YOLO11 농장에서든 야생에서든 역동적인 환경에서 동물의 행동을 추적하는 데 매우 적합합니다.

주요 내용

비전 AI의 발전은 다양한 분야에 실용적인 도구를 제공함으로써 현실 세계의 문제를 더 쉽게 해결할 수 있도록 돕고 있습니다. 예를 들어, YOLO11 같은 컴퓨터 비전 모델은 열악한 환경에서도 동물을 실시간으로 모니터링하고 추적하는 데 사용할 수 있습니다. 

짐 그리핀은 YV24의 기조연설에서 최소한의 코딩으로 복잡한 문제를 해결하는 데 YOLOv8 어떻게 사용할 수 있는지 설명했습니다. 실시간 상어 탐지를 위해 드론과 AI를 결합한 SharkEye 프로젝트는 기술이 해변 안전을 어떻게 개선할 수 있는지 보여주었습니다. 

접근 가능한 AI가 어떻게 다양한 배경을 가진 사람들이 효과적인 솔루션을 만들 수 있도록 지원하는지에 대한 매혹적인 사례 연구였습니다. AI가 계속 발전함에 따라 산업을 변화시키고 개인이 잠재력을 활용하여 세상을 더 안전하고 스마트하며 효율적인 곳으로 만들 수 있도록 지원합니다.

커뮤니티에 참여하고 GitHub 저장소를 탐색하여 AI에 대해 자세히 알아보세요. 농업 분야의 컴퓨터 비전부터 자율 주행 자동차의 AI에 이르기까지, 이러한 기술이 어떻게 혁신을 주도하는지 확인하세요. 라이선스 옵션을 확인하고 지금 바로 AI 프로젝트를 시작해 보세요!

함께 미래의 AI를 만들어 갑시다!

미래의 머신러닝 여정을 시작하세요

무료로 시작하기