Узнайте, как самоконтролируемое обучение устраняет необходимость в ручной маркировке. Узнайте о генеративных и контрастивных методах SSL для улучшения Ultralytics .
Самоконтролируемое обучение (SSL) — это парадигма машинного обучения, при которой система учится понимать данные, генерируя собственные контрольные сигналы из самих данных, а не полагаясь на внешние метки, предоставленные человеком. В традиционном обучении с контролеммодели требуют огромных объемов данных с ручной аннотацией, таких как изображения с метками «кошка» или «собака», что может быть дорого и трудоемко. SSL обходит это препятствие, создавая «предполагаемые задачи», в которых модель должна предсказывать скрытые или отсутствующие части входных данных, эффективно обучая себя базовой структуре и функциям, необходимым для сложных задач, таких как обнаружение объектов и классификации.
Основная идея SSL заключается в маскировке или скрытии части данных и принудительном нейронную сеть (NN) на ее реконструкцию или предсказание взаимосвязи между различными представлениями одних и тех же данных. Этот процесс создает богатые универсальные представления, которые впоследствии могут быть точно настроены для конкретных последующих приложений.
В рамках SSL существует два основных подхода:
Самостоятельное обучение стало краеугольным камнем для создания мощных базовых моделей в различных областях. Его способность использовать огромные объемы немеченых данных делает его высоко масштабируемым.
Важно отличать SSL от неконтролируемым обучением. Хотя оба метода используют немаркированные данные, неконтролируемое обучение обычно фокусируется на поиске скрытых закономерностей или группировок (кластеризации) без конкретной задачи прогнозирования. SSL, напротив, формулирует процесс обучения как контролируемую задачу, в которой метки генерируются автоматически из самой структуры данных. Кроме того, полуконтролируемое обучение сочетает небольшой объем помеченных данных с большим объемом непомеченных данных, тогда как чистое SSL создает свои собственные метки полностью из непомеченного набора данных до начала любой тонкой настройки.
В Ultralytics такие модели, как YOLO26 получают значительные преимущества от передовых стратегий обучения, которые часто включают принципы, схожие с SSL, на этапе предварительного обучения на огромных наборах данных типа ImageNet или COCO. Это гарантирует, что при развертывании пользователями модели для конкретной задачи экстракторы признаков уже будут надежными.
Пользователи могут использовать эти мощные предварительно обученные представления для тонкой настройки моделей на своих собственных наборах данных с помощью платформы Ultralytics .
Вот краткий пример того, как загрузить предварительно обученную модель YOLO26 и начать ее донастройку на новом наборе данных, используя преимущества функций, изученных во время первоначального крупномасштабного обучения:
from ultralytics import YOLO
# Load a pre-trained YOLO26 model (weights learned from large-scale data)
model = YOLO("yolo26n.pt")
# Fine-tune the model on a specific dataset (e.g., COCO8)
# This leverages the robust feature representations learned during pre-training
results = model.train(data="coco8.yaml", epochs=50, imgsz=640)
Как исследователи из крупных лабораторий, таких как Meta AI и Google продолжают совершенствовать эти технологии, SSL расширяет границы возможного в области генеративном ИИ и компьютерном зрении. Уменьшая зависимость от помеченных данных, SSL демократизирует доступ к высокопроизводительному ИИ, позволяя небольшим командам создавать сложные модели для нишевых приложений, таких как охрана дикой природы или промышленный контроль.