Yolo Vision Shenzhen
Шэньчжэнь
Присоединиться сейчас
Глоссарий

Self-Supervised Learning (Самообучение без учителя)

Узнайте, как самоконтролируемое обучение устраняет необходимость в ручной маркировке. Узнайте о генеративных и контрастивных методах SSL для улучшения Ultralytics .

Самоконтролируемое обучение (SSL) — это парадигма машинного обучения, при которой система учится понимать данные, генерируя собственные контрольные сигналы из самих данных, а не полагаясь на внешние метки, предоставленные человеком. В традиционном обучении с контролеммодели требуют огромных объемов данных с ручной аннотацией, таких как изображения с метками «кошка» или «собака», что может быть дорого и трудоемко. SSL обходит это препятствие, создавая «предполагаемые задачи», в которых модель должна предсказывать скрытые или отсутствующие части входных данных, эффективно обучая себя базовой структуре и функциям, необходимым для сложных задач, таких как обнаружение объектов и классификации.

Основные механизмы самоконтролируемого обучения

Основная идея SSL заключается в маскировке или скрытии части данных и принудительном нейронную сеть (NN) на ее реконструкцию или предсказание взаимосвязи между различными представлениями одних и тех же данных. Этот процесс создает богатые универсальные представления, которые впоследствии могут быть точно настроены для конкретных последующих приложений.

В рамках SSL существует два основных подхода:

  • Генеративные методы: модель учится генерировать пиксели или слова для заполнения пробелов. Классический пример в обработки естественного языка (NLP) — это предсказание следующего слова в предложении. В компьютерном зрении такие методы, как маскированные автокодировщики (MAE) скрывают случайные участки изображения и задают модели задачу восстановления недостающих пикселей, заставляя ее «понимать» визуальный контекст.
  • Контрастивное обучение: этот метод учит модель различать схожие и несхожие точки данных. Путем применения методы увеличения объема данных — например, кадрирование, джиттеринг цвета или поворот — к изображению, модель учится, что эти модифицированные версии представляют один и тот же объект (положительные пары), в то время как другие изображения рассматриваются как разные объекты (отрицательные пары). Популярные фреймворки, такие как SimCLR в значительной степени опираются на этот принцип.

Применение в реальном мире

Самостоятельное обучение стало краеугольным камнем для создания мощных базовых моделей в различных областях. Его способность использовать огромные объемы немеченых данных делает его высоко масштабируемым.

  • Медицинская визуализация: получение медицинских сканов с экспертной маркировкой является сложной и дорогостоящей задачей. SSL позволяет моделям предварительно обучаться на тысячах немаркированных рентгеновских снимков или МРТ-сканов для изучения общих анатомических особенностей. Затем эта предварительно обученная модель может быть доработана с помощью небольшого количества маркированных примеров для достижения высокой точности в обнаружении опухолей или диагностике заболеваний.
  • Автономное вождение: самоуправляемые автомобили ежедневно генерируют терабайты видеоданных. SSL позволяет этим системам изучать временную динамику и пространственное понимание на основе необработанных видеозаписей без покадровой аннотации. Это помогает улучшить обнаружению полосы движения и предотвращения столкновений с препятствиями за счет прогнозирования будущих кадров или движения объектов.

Отличие SSL от смежных терминов

Важно отличать SSL от неконтролируемым обучением. Хотя оба метода используют немаркированные данные, неконтролируемое обучение обычно фокусируется на поиске скрытых закономерностей или группировок (кластеризации) без конкретной задачи прогнозирования. SSL, напротив, формулирует процесс обучения как контролируемую задачу, в которой метки генерируются автоматически из самой структуры данных. Кроме того, полуконтролируемое обучение сочетает небольшой объем помеченных данных с большим объемом непомеченных данных, тогда как чистое SSL создает свои собственные метки полностью из непомеченного набора данных до начала любой тонкой настройки.

Использование предварительно обученных весов в Ultralytics

В Ultralytics такие модели, как YOLO26 получают значительные преимущества от передовых стратегий обучения, которые часто включают принципы, схожие с SSL, на этапе предварительного обучения на огромных наборах данных типа ImageNet или COCO. Это гарантирует, что при развертывании пользователями модели для конкретной задачи экстракторы признаков уже будут надежными.

Пользователи могут использовать эти мощные предварительно обученные представления для тонкой настройки моделей на своих собственных наборах данных с помощью платформы Ultralytics .

Вот краткий пример того, как загрузить предварительно обученную модель YOLO26 и начать ее донастройку на новом наборе данных, используя преимущества функций, изученных во время первоначального крупномасштабного обучения:

from ultralytics import YOLO

# Load a pre-trained YOLO26 model (weights learned from large-scale data)
model = YOLO("yolo26n.pt")

# Fine-tune the model on a specific dataset (e.g., COCO8)
# This leverages the robust feature representations learned during pre-training
results = model.train(data="coco8.yaml", epochs=50, imgsz=640)

Будущее SSL

Как исследователи из крупных лабораторий, таких как Meta AI и Google продолжают совершенствовать эти технологии, SSL расширяет границы возможного в области генеративном ИИ и компьютерном зрении. Уменьшая зависимость от помеченных данных, SSL демократизирует доступ к высокопроизводительному ИИ, позволяя небольшим командам создавать сложные модели для нишевых приложений, таких как охрана дикой природы или промышленный контроль.

Присоединяйтесь к сообществу Ultralytics

Присоединяйтесь к будущему ИИ. Общайтесь, сотрудничайте и развивайтесь вместе с мировыми новаторами

Присоединиться сейчас