X
Ultralytics YOLOv8.2 РелизUltralytics YOLOv8.2 РелизUltralytics YOLOv8.2 Стрела освобождения
Зелёная проверка
Ссылка копируется в буфер обмена

Экспортируй тренированную на заказ Ultralytics YOLOv8 модель.

Изучи пользовательское обнаружение объектов с помощью Ultralytics YOLOv8 ! Узнай, как обучать, экспортировать и запускать живые выводы на веб-камере!

Логотип FacebookЛоготип ТвиттераЛоготип LinkedInСимвол копирования-ссылки

Присоединяйся к нам, чтобы поближе познакомиться с пользовательским обнаружением объектов с помощью Ultralytics YOLOv8. В этом посте мы рассмотрим сложный процесс обучения пользовательской модели, экспортируем обученные веса и запустим живые вычисления на веб-камере. 

Обучение пользовательской модели обнаружения объектов

В нашем предыдущем видео мы погрузились в сферу обучения модели YOLOv8 на пользовательском наборе данных cups в Google Colab. Мы увидели, что график обучения неуклонно улучшается: потери уменьшаются, а среднее положение ошибки увеличивается. Исходя из этого, наша специальная модель теперь может очень точно идентифицировать пять различных типов чашек.

Когда наша пользовательская модель обучена и готова к работе, пришло время исследовать следующий рубеж - экспортировать обученные веса и запустить живые вычисления на веб-камере.

Вывод модели - это процесс использования обученной модели компьютерного зрения для принятия предсказаний или решений на основе новых, невидимых данных. Это когда модель использует входные данные, например изображение, и обрабатывает их через свои обученные параметры и структуру. Затем модель выдает выходной результат, например классификацию, обнаружение или сегментацию, основываясь на своей задаче обучения. 

С практической точки зрения, вывод часто подразумевает развертывание обученной модели в производственной среде, где она может быть использована для обработки реальных данных в режиме реального времени или в сценариях пакетной обработки.

Экспортируй и запусти вывод с обученной моделью

Загрузив из Colab обученные веса модели, мы можем без проблем импортировать их в среду Python , готовые раскрыть весь потенциал нашей пользовательской модели.

С помощью нескольких строк кода мы можем настроить скрипт Python для выполнения живого умозаключения на веб-камере, захватывая видеозаписи в реальном времени и определяя различные чашки с впечатляющей точностью. Сила YOLOv8 проявляется в том, что наша модель без труда определяет чашки разных форм, размеров и цветов, демонстрируя свою универсальность и надежность в реальных сценариях.

Тонкая настройка моделей дает несколько преимуществ. Они могут обнаруживать, сегментировать или классифицировать объекты, которые предварительно обученные модели могут не поддерживать. Кроме того, они могут помочь исследователям или специалистам по изучению данных понять, как архитектура модели работает на реальных наборах данных.

Рис. 1. Николай Нильсен рассказывает о том, как обучить пользовательскую модель, экспортировать обученные веса и запустить живое вычисление на веб-камере.

Подведение итогов

От обучения пользовательской модели до экспорта обученных весов и проведения живых выводов на веб-камере - мы воочию убедились в мощи и универсальности YOLOv8 .

Присоединяйся к нам в нашем стремлении раскрыть весь потенциал пользовательского обнаружения объектов с помощью Ultralytics YOLOv8 . Давайте вместе формировать будущее ИИ по одному обнаружению за раз. Загляни на Ultralytics HUB и в нашу документацию, чтобы узнать больше обо всем Ultralytics , а также присоединяйся к нашему сообществу, чтобы быть в курсе последних событий! 

Если тебе интересно узнать, как экспортировать пользовательские обученные модели YOLOv8 и проводить интерференцию по веб-камере, смотри полное видео здесь!

Давай вместе построим будущее
искусственного интеллекта!

Начни свое путешествие с будущим машинного обучения

Читайте больше в этой категории