CoreML을 통해 Ultralytics YOLO11을 Apple 장치에 얼마나 쉽게 적용하고 실시간 iOS 앱을 위한 빠른 오프라인 컴퓨터 비전 작업을 활성화할 수 있는지 알아보세요.

CoreML을 통해 Ultralytics YOLO11을 Apple 장치에 얼마나 쉽게 적용하고 실시간 iOS 앱을 위한 빠른 오프라인 컴퓨터 비전 작업을 활성화할 수 있는지 알아보세요.

Apple이 Apple Intelligence와 같은 기능을 도입함에 따라 온디바이스 AI가 휴대폰 사용 방식의 핵심이 되고 있음이 분명합니다. 개발자에게 이러한 변화는 사용자들이 컴퓨터 비전과 같은 기능을 사용하여 더욱 스마트하고 반응성이 뛰어난 경험을 제공하는 iOS 앱을 채택하고 있음을 의미합니다.
컴퓨터 비전은 컴퓨터가 이미지나 비디오와 같은 시각 정보를 이해하고 분석할 수 있도록 하는 인공 지능 (AI)의 한 유형입니다. 모바일 장치에서는 실시간으로 사용하여 휴대폰 카메라를 통해 객체를 감지, 분류하고 상호 작용할 수 있습니다. Ultralytics YOLO11과 같은 Vision AI 모델은 앱의 요구 사항에 따라 특정 객체를 인식하도록 맞춤형으로 훈련할 수 있습니다.
그러나 YOLO11은 기본적으로 iOS에서 실행되도록 설정되어 있지 않습니다. 특히 오프라인 사용을 위해 YOLO11을 iPhone 또는 기타 Apple 장치에 배포하려면 Apple의 에코 시스템에 최적화된 형식으로 변환해야 합니다.
CoreML은 이러한 문제를 해결하기 위해 개발되었습니다. CoreML은 Apple의 머신 러닝 프레임워크로, 모델을 로컬에서 실행하고 iOS 및 macOS 애플리케이션에 원활하게 통합되도록 설계되었습니다. Ultralytics에서 지원하는 CoreML 통합을 통해 iPhone에서 로컬 배포를 위해 모델을 쉽게 내보낼 수 있습니다.
본 문서에서는 YOLOv8 모델을 CoreML 형식으로 내보내는 방법을 자세히 살펴보겠습니다. 또한 iOS 기기에서 직접 컴퓨터 비전 모델을 실행할 때의 이점을 보여주는 실시간 사용 사례도 살펴보겠습니다. 그럼 시작해 볼까요!
CoreML은 Apple에서 개발한 머신러닝(ML) 프레임워크로, 개발자가 훈련된 ML 모델을 iOS(iPhone 및 iPad), macOS(Mac), watchOS(Apple Watch) 및 tvOS(Apple TV)를 포함한 Apple 생태계 전반의 앱에 직접 통합할 수 있도록 합니다. 인터넷 연결 없이도 모델을 장치에서 직접 실행할 수 있도록 지원하여 Apple 장치에서 머신러닝을 접근 가능하고 효율적으로 만들도록 설계되었습니다.
CoreML의 핵심은 이미지 분류, 객체 감지, 음성 인식 및 자연어 처리와 같은 광범위한 AI 작업을 지원하는 통합 모델 형식입니다. 이 프레임워크는 CPU(중앙 처리 장치), GPU(그래픽 처리 장치) 및 ANE(Apple Neural Engine)를 사용하여 모델을 빠르고 효율적으로 실행하여 Apple 하드웨어를 최대한 활용하도록 최적화되어 있습니다.
CoreML은 다양한 모델 유형을 지원하며 TensorFlow, PyTorch, scikit-learn, XGBoost 및 LibSVM을 포함한 널리 사용되는 머신러닝 라이브러리와 호환됩니다. 이를 통해 개발자는 고급 ML 기능을 일상적인 앱에 쉽게 적용하는 동시에 Apple 장치에서 원활하게 실행되도록 할 수 있습니다.

CoreML이 AI를 Apple 앱에 통합하는 데 신뢰할 수 있는 도구가 되는 주요 기능은 다음과 같습니다:
이제 CoreML 프레임워크에 대한 이해도가 높아졌으므로 Ultralytics에서 지원하는 CoreML 통합을 사용하여 YOLO11 모델을 CoreML 형식으로 내보내는 방법을 살펴보겠습니다.
Ultralytics에서 제공하는 통합 기능에 액세스하려면 먼저 Ultralytics Python 패키지를 설치하십시오. Ultralytics YOLO 모델의 훈련, 평가, 예측 및 내보내기와 같은 작업을 간소화하는 가볍고 사용하기 쉬운 라이브러리입니다.
명령 터미널에서 “pip install ultralytics”를 실행하여 Ultralytics Python 패키지를 설치할 수 있습니다. Jupyter Notebook 또는 Google Colab과 같은 환경을 사용하는 경우 명령 앞에 느낌표(!)를 포함하십시오: “!pip install ultralytics”.
설치 중 또는 CoreML로 내보내는 중에 문제가 발생하면 공식 Ultralytics 설명서 또는 일반적인 문제 해결 가이드를 확인하십시오.
패키지가 성공적으로 설치되면 YOLOv8 모델을 로드하고 CoreML 형식으로 변환할 준비가 된 것입니다.
어떤 사전 훈련된 YOLOv8 모델을 사용해야 할지 확실하지 않은 경우, Ultralytics에서 지원하는 모델 범위를 살펴보십시오. 각 모델은 속도, 크기 및 정확도의 균형이 다르므로 프로젝트에 가장 적합한 모델을 선택할 수 있습니다. 자체 데이터 세트에서 훈련한 경우 사용자 지정 훈련된 YOLOv8 모델을 사용할 수도 있습니다.
아래 코드 스니펫에서는 "yolo11n.pt"라는 사전 훈련된 YOLO11 모델 파일이 사용됩니다. 내보내기 프로세스 중에 "yolo11n.mlpackage"라는 CoreML 패키지로 변환됩니다.
"yolo11n" 모델은 속도와 낮은 리소스 사용량에 최적화된 나노 버전입니다. 프로젝트의 필요에 따라 small의 "s", medium의 "m", large의 "l" 또는 extra-large의 "x"와 같은 다른 모델 크기를 선택할 수도 있습니다. 각 버전은 성능과 정확도 간의 다양한 균형을 제공합니다.
from ultralytics import YOLO
model = YOLO("yolo11n.pt")
model.export(format="coreml")
CoreML 형식으로 내보낸 후 YOLO11은 iOS 애플리케이션에 쉽게 통합될 수 있으므로 iPhone, iPad 및 Mac과 같은 장치에서 객체 감지와 같은 실시간 컴퓨터 비전 작업을 수행할 수 있습니다.
예를 들어, 아래 코드 스니펫은 내보낸 CoreML 모델을 로드하고 추론을 수행하는 방법을 보여줍니다. 추론은 훈련된 모델을 사용하여 새로운 데이터에 대한 예측을 수행하는 과정입니다. 이 경우 모델은 공을 가지고 노는 가족의 이미지를 분석합니다.
coreml_model = YOLO("yolo11n.mlpackage")
results = coreml_model("https://images.pexels.com/photos/4933841/pexels-photo-4933841.jpeg", save=True)
코드를 실행하면 출력 이미지가 "runs/detect/predict" 폴더에 저장됩니다.

YOLO11을 CoreML로 내보내면 iPhone, iPad 및 Mac에서 효율적으로 실행할 수 있는 다양한 컴퓨터 비전 애플리케이션을 구축할 수 있는 유연성이 제공됩니다. 다음으로, 이 통합이 특히 유용한 몇 가지 실제 시나리오를 살펴보겠습니다.
증강 현실(AR)은 가상 요소를 라이브 카메라 뷰에 오버레이하여 디지털 콘텐츠와 실제 세계를 혼합합니다. 이는 모바일 게임의 핵심 요소가 되어 더욱 인터랙티브하고 몰입감 있는 경험을 제공합니다.
CoreML 형식으로 내보낸 YOLO11을 사용하여 iOS 개발자는 휴대폰 카메라를 사용하여 벤치, 나무 또는 표지판과 같은 실제 객체를 인식하는 AR 게임을 만들 수 있습니다. 그런 다음 게임은 코인, 단서 또는 생물과 같은 가상 아이템을 이러한 객체 위에 오버레이하여 플레이어의 주변 환경을 향상시킬 수 있습니다.
보이지 않는 곳에서 이는 객체 감지 및 객체 추적을 사용하여 작동합니다. YOLO11은 실시간으로 객체를 감지하고 식별하는 반면, 추적은 카메라가 움직일 때 해당 객체를 계속 주시하여 가상 요소가 실제 세계와 정렬되도록 합니다.
플레이어는 휴대폰을 사용하여 주변 환경을 탐색하고 보이는 것과 상호 작용하여 아이템을 수집하거나 빠른 챌린지를 완료할 수 있습니다. 이 모든 것이 인터넷 연결 없이 장치에서 직접 실행될 수 있어 경험이 원활하고 매력적입니다.
자동 번호판 인식(ANPR)은 차량 번호판을 감지하고 읽는 데 사용되는 컴퓨터 비전 애플리케이션입니다. 보안, 교통 모니터링 및 액세스 제어 시스템에서 일반적으로 사용됩니다. CoreML 및 YOLO11과 같은 모델을 사용하면 ANPR을 iOS 장치에서 효율적으로 실행할 수 있습니다.
iPhone에 ANPR 앱이 있으면 보안 중심 환경에서 특히 유용할 수 있습니다. 예를 들어 팀은 제한 구역에 들어오는 차량이 승인되었는지 여부를 신속하게 판단하는 데 도움이 될 수 있습니다.
이러한 앱은 CoreML을 통해 통합된 YOLO11과 같은 Vision AI 모델을 사용하여 장치의 카메라를 통해 실시간으로 차량을 감지하고 차량 번호판을 찾을 수 있습니다. 번호판이 감지되면 OCR(광학 문자 인식) 기술이 라이선스 번호를 읽을 수 있습니다. 그런 다음 앱은 이 번호를 로컬 또는 클라우드 기반 데이터베이스와 비교하여 액세스를 확인하거나 무단 차량을 표시할 수 있습니다.

AI는 접근성에 큰 영향을 미쳐 시각 장애가 있는 사람들의 장벽을 허무는 데 도움을 주고 있습니다. CoreML 및 YOLO11과 같은 컴퓨터 비전 모델과 같은 도구를 사용하여 개발자는 사용자의 주변 환경을 실시간으로 설명하는 iOS 앱을 구축하여 일상적인 작업을 더 쉽고 독립적으로 수행할 수 있습니다.
예를 들어, 시각 장애인은 iPhone 카메라를 주변 환경에 향하게 할 수 있습니다. 앱은 객체 감지를 사용하여 차량, 사람 또는 거리 표지판과 같은 주요 요소를 인식하고 보이는 내용을 설명합니다. 이는 번잡한 거리를 탐색하거나 비상 상황을 이해하는 것과 같은 상황에서 사용할 수 있습니다.

YOLOv8을 CoreML 형식으로 내보내면 iOS 기기에서 오프라인 객체 감지를 포함하여 실시간 애플리케이션을 위한 새로운 기회가 창출됩니다. 농업 및 보안에서 접근성에 이르기까지 이 조합을 통해 개발자는 장치에서 완전히 실행되는 스마트하고 효율적이며 개인 정보 보호에 중점을 둔 앱을 구축할 수 있습니다.
몇 가지 간단한 단계를 통해 YOLO11 모델을 변환하고 안정적인 컴퓨터 비전 기능을 iPhone에 추가할 수 있습니다. 무엇보다도 인터넷 연결 없이도 작동합니다. 전반적으로 CoreML 통합은 고급 AI의 기능을 일상적인 모바일 앱에 제공하여 더욱 빠르고 반응성이 뛰어나며 어디서든 실행할 수 있도록 합니다.
AI에 대해 더 자세히 알고 싶으신가요? GitHub 저장소를 탐색하고, 커뮤니티와 연결하고, 라이선스 옵션을 확인하여 컴퓨터 비전 프로젝트를 시작해 보세요. 솔루션 페이지에서 소매업의 AI 및 물류 분야의 컴퓨터 비전과 같은 혁신이 어떻게 미래를 만들어 가고 있는지 알아보세요.


.webp)