Узнайте, как Semi-Supervised Learning объединяет размеченные и неразмеченные данные для улучшения моделей ИИ, снижения затрат на маркировку и повышения точности.
Полунаблюдаемое обучение (SSL) - это мощная парадигма в Машинное обучение (ML), которое преодолевает разрыв между полностью контролируемым обучением и неконтролируемым обучением. В то время как контролируемые методы требуют полностью аннотированных наборов данных, а неконтролируемые методы работают полностью без меток, SSL работает за счет использования небольшого количества помеченных данных наряду с гораздо большим количеством не помеченных данных. Во многих реальных сценариях получение исходных данных является относительно дешевым, но процесс маркировки данных является дорогостоящим, трудоемким и требует человеческого опыта. SSL решает эту проблему, используя ограниченное количество помеченных примеров для управления процессом обучения. позволяя модели извлекать структуру и закономерности из огромного количества немаркированных сегментов, тем самым повышая общую точность и обобщенность модели.
Фундаментальный механизм SSL заключается в распространении информации от помеченных данных к немеченым. Процесс Процесс обычно начинается с обучения начальной модели на небольшом наборе помеченных данных. Затем эта модель используется для прогнозов на немеченых данных. Наиболее достоверные предсказания, часто называемые псевдопометками, рассматриваются как истина. истина, и модель повторно обучается на расширенном наборе данных. Этот итерационный цикл позволяет нейронным сетям выучить границы принятия решений, которые более надежные, чем те, которые были получены только на основе помеченных данных.
Общие методы, используемые в SSL, включают:
Полунаблюдаемое обучение особенно эффективно в тех отраслях, где данных много, а экспертной аннотации мало. не хватает экспертной оценки.
Чтобы полностью понять SSL, необходимо отличать его от аналогичных парадигм обучения:
Реализация полуконтролируемого рабочего процесса часто включает в себя цикл "учитель-ученик" или итеративное обучение. Ниже
приведен концептуальный пример с использованием ultralytics Пакет Python для демонстрации того, как можно делать выводы на
немаркированных данных для создания прогнозов, которые могут служить псевдомаркировкой для дальнейшего обучения.
from ultralytics import YOLO
# Initialize the YOLO11 model (Teacher)
model = YOLO("yolo11n.pt")
# Train initially on a small, available labeled dataset
model.train(data="coco8.yaml", epochs=10)
# Run inference on a directory of unlabeled images to generate predictions
# These results can be filtered by confidence to create 'pseudo-labels'
results = model.predict(source="./unlabeled_data", save_txt=True, conf=0.8)
# The saved text files from prediction can now be combined with the original
# dataset to retrain a robust 'Student' model.
Фреймворки для глубокого обучения, такие как PyTorch и TensorFlow предоставляют строительные блоки, необходимые для реализации пользовательских SSL циклов и функций потерь. Поскольку модели становятся все более крупными и требовательными к объему данных, такие методы, как SSL, становятся стандартной практикой для достижения максимальной эффективности использования данных.
Создаваемая платформа Ultralytics Platform призвана оптимизировать подобные рабочие процессы, помогая командам управлять переходом от исходных данных к развертыванию модели, облегчая курирование данных и процессов автоаннотирования. Благодаря Эффективное использование немаркированных данных позволяет организациям внедрять высокопроизводительные решения ИИ, такие как YOLO11 быстрее и доступнее, чем на основе чисто чем при использовании исключительно контролируемых методов.