새로운 Ultralytics YOLO11 모델, 기능 및 다양한 산업 분야에서의 실시간 응용 분야에 대해 자세히 알아보세요. 알아야 할 모든 것을 안내해 드립니다.

새로운 Ultralytics YOLO11 모델, 기능 및 다양한 산업 분야에서의 실시간 응용 분야에 대해 자세히 알아보세요. 알아야 할 모든 것을 안내해 드립니다.
9월 30일 월요일, Ultralytics는 연례 하이브리드 이벤트인 YOLO Vision 2024(YV24)에서 데뷔한 후 컴퓨터 비전의 최신 발전 기술인 Ultralytics YOLO11을 공식적으로 출시했습니다. AI 커뮤니티는 모델의 기능을 탐색하기 위해 서두르면서 흥분으로 들끓고 있습니다. 더 빠른 처리 속도, 더 높은 정확도, 에지 장치와 클라우드 배포 모두에 최적화된 모델을 통해 YOLO11은 실시간 컴퓨터 비전 애플리케이션에서 가능한 것을 재정의합니다.
인터뷰에서 Ultralytics 설립자 겸 CEO인 Glenn Jocher는 다음과 같이 말했습니다. "세계는 청정 에너지로 나아가고 있지만 충분히 빠르지 않습니다. 우리는 모델이 더 적은 에포크, 더 적은 증강 및 더 적은 데이터로 훈련될 수 있기를 원하므로 열심히 노력하고 있습니다. 가장 작은 객체 감지 모델인 YOLO11n은 260만 개의 파라미터만 가지고 있습니다. 이는 JPEG 크기 정도이며 정말 놀랍습니다. 가장 큰 객체 감지 모델인 YOLO11x는 약 5,600만 개의 파라미터를 가지고 있으며 다른 모델에 비해 매우 작습니다. 약간의 흥분과 약간의 커피만 있으면 5년 된 Nvidia GPU와 같은 저렴한 GPU에서 훈련할 수 있습니다."
이번 글에서는 YOLO11의 기능, 개선 사항, 성능 벤치마크 및 실제 적용 사례를 자세히 살펴보고 이 모델이 무엇을 할 수 있는지 이해하는 데 도움을 드립니다. 시작해 보겠습니다!
YOLO11은 YOLO(You Only Look Once) 시리즈의 최신 컴퓨터 비전 모델로, YOLOv5 및 YOLOv8과 같은 이전 버전에 비해 상당한 개선을 제공합니다. Ultralytics 팀은 커뮤니티 피드백과 최첨단 연구를 통합하여 YOLO11을 더 빠르고 정확하며 효율적으로 만들었습니다. YOLO11은 또한 객체 감지, 인스턴스 분할 및 이미지 분류를 포함하여 YOLOv8과 동일한 컴퓨터 비전 작업을 지원합니다. 실제로 사용자는 기존 워크플로우를 변경할 필요 없이 YOLO11로 쉽게 전환할 수 있습니다.
YOLO11의 주요 특징 중 하나는 이전 모델에 비해 정확도와 속도 모두에서 뛰어난 성능을 제공한다는 것입니다. YOLO11m은 YOLOv8m보다 파라미터 수가 22% 적으면서도 평균 평균 정밀도(mAP)가 더 높습니다(COCO 데이터 세트 기준). 즉, 객체를 더 정확하고 효율적으로 감지할 수 있습니다. 처리 속도 측면에서 YOLO11은 이전 모델보다 성능이 뛰어나 빠른 감지 및 응답이 중요한 실시간 애플리케이션에 이상적이며 모든 밀리초가 중요합니다.
아래 벤치마킹 그래프는 YOLO11이 이전 모델과 어떻게 차별화되는지 보여줍니다. 가로축에는 객체 감지 정확도를 측정하는 COCO Box Average Precision(AP)이 표시됩니다. 세로축에는 NVIDIA T4 GPU에서 TensorRT10 FP16을 사용하여 대기 시간이 표시되어 모델이 데이터를 얼마나 빨리 처리하는지 나타냅니다.
Ultralytics YOLO11 출시와 함께 Ultralytics는 업계 전반의 증가하는 수요를 충족하기 위해 오픈 소스 및 엔터프라이즈 모델을 모두 제공함으로써 YOLO 시리즈를 확장하고 있습니다.
YOLO11은 Nano, Small, Medium, Large 및 X의 5가지 모델 크기를 제공합니다. 사용자는 컴퓨터 비전 애플리케이션의 특정 요구 사항에 따라 가장 적합한 모델을 선택할 수 있습니다. 5가지 크기는 이미지 분류, 객체 감지, 인스턴스 분할, 추적, 자세 추정 및 OBB(Oriented Bounding Boxes) 객체 감지와 같은 작업에서 유연성을 제공합니다. 각 크기마다 각 작업에 사용할 수 있는 모델이 있어 Ultralytics 제품의 핵심을 구성하는 총 25개의 오픈 소스 모델이 있습니다. 이러한 모델은 YOLO11n 모델이 인상적인 효율성을 제공하는 에지 장치에서의 경량 작업부터 YOLO11l 및 YOLO11x 모델이 필요한 대규모 애플리케이션에 이르기까지 광범위한 애플리케이션에 이상적입니다.
Ultralytics는 처음으로 엔터프라이즈 모델을 도입하여 제품 제공에 중요한 이정표를 세웠으며, 이러한 새로운 혁신을 사용자와 공유하게 되어 기쁩니다. YOLO11은 상업적 사용 사례를 위해 특별히 설계된 5가지 독점 모델을 소개합니다. 다음 달에 출시될 예정인 이러한 엔터프라이즈 모델은 100만 장 이상의 이미지로 구성된 Ultralytics의 새로운 독점 데이터 세트에서 학습되어 더욱 강력한 사전 훈련된 모델을 제공합니다. 이 모델은 정확한 객체 감지가 중요한 의료 영상 분석 및 위성 이미지 처리와 같은 까다로운 실제 애플리케이션을 위해 설계되었습니다.
이제 YOLO11이 제공하는 기능을 살펴보았으니, YOLO11을 특별하게 만드는 요소를 살펴보겠습니다.
YOLO11 개발의 주요 과제 중 하나는 모델을 더 작고, 더 빠르고, 더 정확하게 만드는 것과 같이 상충되는 우선 순위 간의 적절한 균형을 찾는 것이었습니다. Ultralytics의 설립자이자 CEO인 Glenn Jocher는 다음과 같이 설명했습니다. "YOLO 연구 개발 작업은 모델을 더 작게 만들고, 더 정확하게 만들고, CPU 및 GPU와 같은 다양한 플랫폼에서 더 빠르게 만들고 싶어 세 가지 다른 방향으로 나아가고 싶기 때문에 정말 어렵습니다. 이 모든 것이 상충되는 관심사이므로 절충하고 변경할 위치를 선택해야 합니다." 이러한 어려움에도 불구하고 YOLO11은 이전 버전인 YOLOv8보다 속도와 정확성 모두 개선되어 인상적인 균형을 이룹니다.
YOLO11은 재설계된 백본 및 넥 아키텍처를 통해 향상된 특징 추출과 같은 상당한 개선 사항을 제공하여 보다 정확한 객체 감지를 가능하게 합니다. 또한 이 모델은 속도와 효율성을 위해 최적화되어 높은 정확도를 유지하면서 더 빠른 처리 시간을 제공합니다. 이러한 이점 외에도 YOLO11은 다양한 환경에 매우 잘 적응하며, 에지 장치, 클라우드 플랫폼 및 NVIDIA GPU를 사용하는 시스템에서 원활하게 작동합니다. 이러한 적응성 덕분에 모바일 장치에서 대규모 서버에 이르기까지 다양한 하드웨어 설정에서 유연한 배포 옵션이 필요한 사용자에게 이상적인 선택입니다.
YOLO11의 다재다능함은 특히 복잡한 사용 사례를 처리할 때 여러 산업 분야에서 신뢰할 수 있는 도구입니다. 예를 들어 엣지 장치에서 원활하게 작동하며 컴퓨팅 성능이 제한된 환경에서 실시간 분석이 필요한 애플리케이션에 사용할 수 있습니다. 이에 대한 훌륭한 예는 모든 사람의 안전을 위해 순식간에 결정을 내려야 하는 자율 주행입니다. YOLO11은 조명이 어둡거나 일부가 가려진 경우와 같이 어려운 조건에서도 보행자나 다른 자동차와 같은 도로 위의 객체를 감지하고 분석하여 도움을 줍니다. 빠르고 정확한 감지는 사고를 예방하고 자율 주행 차량이 안전하게 탐색할 수 있도록 도와줍니다.
YOLO11의 또 다른 흥미로운 예는 OBB(방향이 지정된 경계 상자)를 처리하는 기능입니다. 이는 완벽하게 정렬되지 않은 객체를 감지하는 데 필수적입니다. OBB 객체 탐지는 농업, 매핑 및 감시와 같은 산업에서 특히 유용한 기능이며, 여기서 이미지에는 항공 또는 위성 이미지의 작물이나 건물과 같이 회전된 객체가 포함되는 경우가 많습니다. 기존 모델과 달리 YOLO11은 모든 각도에서 객체를 식별하고 정밀도가 필요한 작업에 대해 훨씬 더 정확한 결과를 제공할 수 있습니다.
YOLO11은 코딩 방식과 노코드 방식 모두 간단하고 쉽게 시작할 수 있습니다. 코드를 통해 YOLO11을 사용하려면 Ultralytics Python 패키지를 사용하여 모델을 쉽게 훈련하고 배포할 수 있습니다. 노코드 방식을 선호하는 경우 Ultralytics HUB를 통해 몇 번의 클릭만으로 YOLO11을 사용해 볼 수 있습니다.
Python에서 YOLO11을 사용하려면 먼저 Ultralytics 패키지를 설치해야 합니다. 선호도에 따라 pip, conda 또는 Docker를 사용하여 설치할 수 있습니다. 설치 프로세스와 관련된 자세한 지침 및 모범 사례는 Ultralytics 설치 가이드를 참조하십시오. YOLO11에 필요한 패키지를 설치하는 동안 어려움이 발생하면 일반적인 문제 해결 가이드에서 해결 방법과 팁을 참조하십시오.
Ultralytics 패키지를 설치했다면 YOLO11을 사용하는 것은 간단합니다. 다음 코드 조각은 모델 로드, 훈련, 성능 테스트 및 ONNX 형식으로 내보내기하는 과정을 안내합니다. 더 자세한 예제와 고급 사용법은 공식 Ultralytics 문서를 참조하십시오. 여기에서 가이드와 YOLO11을 최대한 활용하기 위한 모범 사례를 자세히 확인할 수 있습니다.
코드가 필요 없는 방식을 선호하는 사용자를 위해 Ultralytics HUB는 몇 번의 클릭만으로 YOLO11 모델을 학습하고 배포할 수 있는 쉬운 방법을 제공합니다. HUB를 시작하려면 Ultralytics HUB 플랫폼에서 계정을 생성하기만 하면 직관적인 인터페이스를 통해 모델을 학습하고 관리할 수 있습니다.
AI 커뮤니티는 실제 애플리케이션을 위해 더 빠르고 정확한 모델을 개발하기 위해 노력함으로써 컴퓨터 비전 분야를 끊임없이 발전시키고 있습니다. Ultralytics YOLO11은 이러한 노력의 중요한 이정표이며 향상된 속도, 정확성 및 유연성을 제공합니다. 실시간 및 에지 애플리케이션을 위해 설계되었으며 의료 및 자율 주행과 같은 산업에 이상적입니다. Ultralytics Python 패키지 또는 노코드 Ultralytics Hub를 사용하든 YOLO11은 복잡한 Vision AI 작업을 단순화합니다. 강력한 컴퓨터 비전 기능을 제공하여 개발자와 기업 모두에게 훌륭한 선택입니다.
AI에 대해 더 자세히 알아보려면 GitHub 저장소를 확인하고 활발한 커뮤니티에 참여하세요. 비전 AI가 헬스케어 및 농업과 같은 분야에서 어떻게 혁신을 주도하고 있는지 살펴보세요.