원활한 ML 통합, 실험 추적 등을 통해 향상된 Ultralytics YOLOv5 환경을 제공하는 ClearML과의 파트너십에 대해 알아보세요.

원활한 ML 통합, 실험 추적 등을 통해 향상된 Ultralytics YOLOv5 환경을 제공하는 ClearML과의 파트너십에 대해 알아보세요.
저희는 다른 스타트업과 상업적 파트너십을 맺고 YOLOv5와 같은 멋진 오픈 소스 도구의 연구 및 개발 자금을 지원하여 모든 사람이 무료로 사용할 수 있도록 하고 있습니다. 이 문서에는 해당 파트너의 제휴 링크가 포함되어 있을 수 있습니다.
ClearML은 시간을 절약할 수 있도록 설계된 오픈소스 툴박스입니다.
ML 도입을 가속화한다는 사명을 가진 ClearML은 ML을 모든 소프트웨어 및 하드웨어 제품에 원활하게 통합할 수 있도록 지원합니다.
이 통합을 통해 YOLOv5 모델을 더욱 간편하게 훈련하고 ClearML 실험 관리자를 사용하여 자동으로 추적할 수 있습니다. 데이터 입력으로 ClearML 데이터 세트 버전 ID를 쉽게 지정할 수 있으며, 이 데이터는 자동으로 모델 훈련에 사용됩니다.
이러한 도구 중 몇 개를 사용할지는 실험 관리자만 사용할지, 아니면 모두 함께 연결하여 인상적인 파이프라인으로 만들지는 여러분의 선택에 달려 있습니다.
실험과 데이터를 추적하려면 ClearML이 서버와 통신해야 합니다. 이를 위한 두 가지 옵션이 있습니다. ClearML 호스팅 서비스에 무료로 가입하거나 자체 서버를 설정하는 방법이 있습니다( 여기를 참조하세요).
서버도 오픈소스이기 때문에 민감한 데이터를 다루는 경우에도 문제 없습니다!
그리고 짜잔! 시작할 준비가 되셨습니다...
ClearML 실험 추적을 사용하려면 ClearML pip 패키지를 설치하기만 하면 됩니다.
pip 설치 clearml
이렇게 하면 YOLOv5 교육 스크립트와 통합할 수 있습니다. 이제부터 실행되는 모든 교육은 ClearML 실험 관리자에 의해 캡처되고 저장됩니다. 프로젝트 이름 또는 작업 이름을 변경하려면 사용자 지정 로거로 이동하여 변경할 수 있습니다(utils/loggers/clearml/clearml_utils.py).
python train.py --img 640 --batch 16 --epochs 3 --data coco128.yaml --weights yolov5s.pt --cache
이렇게 하면 캡처됩니다:
나쁘지 않네요! 이제 이 모든 정보를 ClearML UI에서 시각화하여 훈련 진행 상황을 한눈에 파악할 수 있습니다. 테이블 보기에 사용자 지정 열(예: mAP_0.5)을 추가하여 가장 성과가 좋은 모델을 쉽게 정렬할 수 있습니다. 또는 여러 실험을 선택하여 직접 비교할 수도 있습니다!
하이퍼파라미터 최적화 및 원격 실행과 같이 이 모든 정보로 할 수 있는 일이 훨씬 더 많으니 계속 읽어보시고 방법을 알아보세요!
데이터를 코드와 별도로 버전 관리하는 것은 일반적으로 좋은 생각이며 최신 버전을 쉽게 얻을 수 있습니다. 이 리포지토리는 데이터 집합 버전 ID 제공을 지원하며, 아직 버전이 없는 경우 데이터를 가져올 수 있도록 합니다. 또한 이 워크플로에서는 사용된 데이터 세트 ID를 작업 매개변수의 일부로 저장하므로 어떤 데이터가 어떤 실험에 사용되었는지 항상 알 수 있습니다!
YOLOv5 리포지토리는 해당 정보가 포함된 YAML 파일을 사용하여 다양한 데이터 집합을 지원합니다. 기본적으로 데이터 세트는 리포지토리 루트 폴더와 관련하여 ../datasets 폴더에 다운로드됩니다. 따라서 YAML의 링크를 사용하거나 yolov5에서 제공하는 스크립트를 사용하여 coco128 데이터셋을 다운로드한 경우 이 폴더 구조를 갖게 됩니다:
...
|_ yolov5
|_ 데이터세트
|_ 코코128
|_ 이미지
|_ 레이블
|_ 라이선스
|_ README.txt
하지만 원하는 데이터 세트는 무엇이든 상관없습니다. 이 폴더 구조를 지키기만 한다면 자유롭게 사용해도 됩니다.
그런 다음, 해당 YAML 파일을 folder⚠️ 데이터 집합의 루트에 ⚠️copy 업로드합니다. 이 YAML 파일에는 ClearML이 데이터 세트를 올바르게 사용하는 데 필요한 정보가 포함되어 있습니다. 물론 예제 YAML의 구조를 따라 직접 만들 수도 있습니다.
기본적으로 경로, 트레인, 테스트, 밸, 엔씨, 이름 등의 키가 필요합니다.
...
|_ yolov5
|_ 데이터세트
|_ coco128
|_ 이미지
|_ 라벨
|_ coco128.yaml # ← 여기!
|_ LICENSE
|_ README.txt
이 데이터 집합을 버전이 지정된 데이터 집합으로 ClearML에 가져오려면 데이터 집합 루트 폴더로 이동하여 다음 명령을 실행합니다:
cd 코코128
clearml-data sync --project YOLOv5 --name coco128 --folder .
clearml-data sync 명령은 사실 속기 명령입니다. 이러한 명령을 차례로 실행할 수도 있습니다:
# 선택적으로 --parent를 추가할 수 있습니다.
# 이 버전은 다른 데이터세트 버전에 있으므로 중복된 파일이 업로드되지 않습니다!
clearml-data create --name coco128 --project YOLOv5/p>
clearml-data add --files .
클리어 데이터 닫기
이제 ClearML 데이터 세트가 있으므로 이를 사용하여 매우 간단하게 사용자 지정 YOLOv5 모델을 학습할 수 있습니다.
python train.py --img 640 --batch 16 --epochs 3 --data clearml:// --weights yolov5s.pt --cache
이제 실험과 데이터 버전을 확보했으니 그 위에 무엇을 구축할 수 있는지 살펴볼 차례입니다!
코드 정보, 설치된 패키지 및 환경 세부 정보를 사용하여 이제 실험 자체를 완벽하게 재현할 수 있습니다. 실제로 ClearML을 사용하면 실험을 복제하고 매개변수까지 변경할 수 있습니다. 그런 다음 새로운 매개변수로 실험을 자동으로 다시 실행하면 됩니다. 이것이 바로 HPO의 기본 기능입니다!
하이퍼파라미터 최적화를 로컬에서 실행할 수 있도록 미리 만들어진 스크립트가 포함되어 있습니다. 훈련 작업이 한 번 이상 실행된 적이 있는지 확인하여 ClearML 실험 관리자에서 해당 작업을 복제하고 하이퍼파라미터를 변경하기만 하면 됩니다.
이 템플릿 작업의 ID를 utils/loggers/clearml/hpo.py에 있는 스크립트에 입력한 다음 실행하기만 하면 됩니다. task.execute_locally()를 task.execute()로 변경하여 ClearML 대기열에 넣고 원격 에이전트가 대신 작업하도록 할 수 있습니다.
# 옵투나를 사용하려면 먼저 옵투나를 설치하세요. 그렇지 않으면 옵투나를 RandomSearch로만 변경할 수 있습니다. 파이썬 utils/loggers/clearml/hpo.py 설치 옵투나를 설치하세요.
로컬에서 HPO를 실행하는 것은 정말 편리하지만, 대신 원격 컴퓨터에서 실험을 실행하고 싶다면 어떻게 해야 할까요? 현장에서 매우 강력한 GPU 머신에 액세스할 수 있거나 클라우드 GPU를 사용할 수 있는 예산이 있을 수도 있습니다. 바로 이 경우에 ClearML 에이전트가 유용합니다.
여기에서 상담원이 할 수 있는 일을 확인하세요:
간단히 말해, 실험 관리자가 추적하는 모든 실험에는 다른 머신에서 재현할 수 있는 충분한 정보(설치된 패키지, 커밋되지 않은 변경 사항 등)가 포함되어 있습니다. 따라서 ClearML 에이전트는 수신 대기열에서 들어오는 작업을 대기하고 있다가 작업을 발견하면 환경을 다시 생성하고 실행하면서 스칼라, 플롯 등을 실험 관리자에게 보고합니다.
클라우드 가상 머신, 로컬 GPU 머신, 개인 노트북 등 어떤 머신이든 간단히 실행하여 ClearML 에이전트로 전환할 수 있습니다:
clearml-agent 데몬 --queue [--docker]
에이전트가 실행되면 에이전트에 작업을 부여할 수 있습니다. HPO 섹션에서 작업을 복제하고 하이퍼파라미터를 편집할 수 있다는 것을 기억하시나요? 인터페이스에서도 이 작업을 수행할 수 있습니다!
실험을 마우스 오른쪽 버튼으로 클릭하여 복제합니다.
🎯 하이퍼파라미터를 원하는 대로 편집합니다.
작업을 마우스 오른쪽 버튼으로 클릭하여 대기열에 대기열에 추가합니다.
이제 위에서 설명한 대로 작업을 복제하거나 task.execute_remotely()를 추가하여 현재 스크립트를 표시하면 실행 시 에이전트가 작업을 시작할 수 있도록 큐에 넣을 수 있습니다!
YOLOv5 트레이닝 스크립트를 원격으로 실행하려면 ClearML 로거를 인스턴스화한 후 training.py 스크립트에 이 줄을 추가하기만 하면 됩니다:
# ... # Loggers data_dict = None if RANK in {-1, 0}: loggers = Loggers(save_dir, weights, opt, hyp, LOGGER) # loggers instance if loggers.clearml: loggers.clearml.task.execute_remotely(queue='my_queue') # <------ ADD THIS LINE # Data_dict is either None is user did not choose for ClearML dataset or is filled in by ClearML data_dict = loggers.clearml.data_dict # ...
이 변경 후 트레이닝 스크립트를 실행하면 파이썬은 해당 줄까지만 스크립트를 실행하고 그 이후에는 코드를 패키징하여 대기열로 대신 보냅니다!
ClearML에는 자동 스케일러도 함께 제공됩니다! 이 도구는 대기열에서 실험이 감지될 때마다 선택한 클라우드(AWS, GCP, Azure)에서 새 원격 머신을 자동으로 스핀업하고 이를 ClearML 에이전트로 전환합니다. 작업이 처리되면 자동 스케일러가 원격 머신을 자동으로 종료하고 사용자는 비용을 지불하지 않아도 됩니다! 아래에서 자동 스케일러 시작하기 동영상을 확인하세요.
질문이 있으신가요? 지금 바로 커뮤니티에 가입하여 질문을 남겨주세요!