Настраивайтесь на YOLO Vision 2025!
25 сентября 2025 г.
10:00 — 18:00 BST
Гибридное мероприятие
Yolo Vision 2024
Глоссарий

Обслуживание моделей

Изучите основы обслуживания моделей — развертывайте модели AI для прогнозирования в реальном времени, масштабируемости и бесшовной интеграции в приложения.

Обслуживание моделей — это процесс предоставления обученной модели машинного обучения (ML) для получения входных данных и возврата прогнозов в производственной среде. После того как модель обучена и проверена, обслуживание становится критически важным шагом, который превращает ее из статического файла в активный, операционный инструмент, способный поддерживать реальные приложения. Оно включает в себя развертывание модели на сервере и создание интерфейса, обычно API, который позволяет другим программным системам взаимодействовать с ней для вывода в реальном времени.

Обслуживание моделей тесно связано с более широким процессом развертывания моделей, но является его конкретным компонентом. Развертывание охватывает весь рабочий процесс интеграции модели в производственную среду, включая настройку инфраструктуры и мониторинг. Обслуживание моделей относится конкретно к той части инфраструктуры, которая отвечает за запуск модели и эффективную обработку запросов на вывод.

Ключевые компоненты для обслуживания моделей

Надежная система обслуживания моделей состоит из нескольких интегрированных компонентов, которые работают вместе, чтобы обеспечить быстрые и надежные прогнозы.

  • Формат модели: Перед обслуживанием модель должна быть упакована в стандартизированный формат. Такие форматы, как ONNX, обеспечивают совместимость между различными фреймворками. Для максимальной производительности модели можно оптимизировать с помощью таких инструментов, как TensorRT для графических процессоров NVIDIA.
  • Фреймворк для обслуживания: Специализированное программное обеспечение, которое загружает модель, управляет аппаратными ресурсами, такими как графические процессоры, и обрабатывает запросы на вывод. Популярные фреймворки включают TensorFlow Serving, PyTorch Serve и высокопроизводительный NVIDIA Triton Inference Server, который можно использовать с моделями Ultralytics через наше руководство по интеграции Triton.
  • Конечная точка API: Это коммуникационный шлюз, который позволяет клиентским приложениям отправлять данные (например, изображение или текст) и получать прогноз модели. REST и gRPC — распространенные протоколы API, используемые для этой цели.
  • Инфраструктура: Физическое или виртуальное оборудование, на котором работает модель. Это может варьироваться от локальных серверов до платформ облачных вычислений, таких как Amazon SageMaker и Google Cloud AI Platform. Для приложений, требующих низкой задержки, модели часто обслуживаются на периферийных AI устройствах. Контейнеризация с помощью таких инструментов, как Docker, необходима для создания переносимых и масштабируемых сред обслуживания.
  • Мониторинг и ведение журналов: Непрерывное отслеживание производительности модели и работоспособности системы. Это включает в себя мониторинг таких метрик, как задержка вывода и пропускная способность, а также наблюдение за такими проблемами, как дрейф данных, который может ухудшить точность модели с течением времени. Вы можете узнать больше в нашем руководстве по мониторингу моделей.

Применение в реальном мире

Обслуживание моделей является движущей силой бесчисленных функций на основе ИИ.

  1. Управление запасами на основе ИИ: Розничная компания использует модель Ultralytics YOLO11 для управления запасами в реальном времени. Модель упакована в формат ONNX и обслуживается на небольшом периферийном компьютере внутри магазина. Камера отправляет видеопоток в конечную точку обслуживания, которая выполняет обнаружение объектов для подсчета товаров на полках и отправляет оповещения, когда запасы низкие.
  2. Анализ медицинских изображений в облаке: Больничная система развертывает сложную модель компьютерного зрения для анализа медицинских изображений. Из-за большого размера модели и вычислительных потребностей она обслуживается на мощном облачном сервере с несколькими графическими процессорами. Рентгенологи загружают сканы высокого разрешения через защищенный портал, который вызывает API обслуживания. Модель возвращает прогнозы, которые помогают выявить потенциальные аномалии, повышая скорость и точность диагностики.

Роль MLOps

Обслуживание моделей является краеугольным камнем Machine Learning Operations (MLOps). Хорошая стратегия MLOps гарантирует, что весь жизненный цикл—от предварительной обработки данных и обучения моделей до обслуживания и мониторинга—автоматизирован, надежен и масштабируем. Платформы, такие как Ultralytics HUB, разработаны для упрощения всего этого рабочего процесса, предоставляя интегрированное решение для эффективного обучения, управления версиями и обслуживания моделей компьютерного зрения.

Присоединяйтесь к сообществу Ultralytics

Присоединяйтесь к будущему ИИ. Общайтесь, сотрудничайте и развивайтесь вместе с мировыми новаторами

Присоединиться сейчас
Ссылка скопирована в буфер обмена