Узнайте, как метод адаптации доменов без учителя (UDA) позволяет восполнить недостаток данных с помощью немеченых данных. Научитесь оптимизировать модели Ultralytics для внедрения в реальных условиях.
Неконтролируемая адаптация к домену (UDA) — это специализированная область переносного обучения, призванная устранить разрыв в производительности между двумя разными, но связанными между собой распределениями данных. В реальных сценариях машинного обучения модель обычно обучается на тщательно аннотированном «исходном» наборе данных. Однако при внедрении в производственную среду она часто сталкивается с «целевым» доменом, отличающимся визуально — например, из-за меняющихся условий освещения, других датчиков датчиков камеры или изменяющиеся погодные условия. Как подробно описано в обзоре адаптации домена на Википедии, методы UDA направлены на адаптацию предварительно обученной модели к этому новому целевому домену с использованием только немеченых данных, что позволяет эффективно смягчить падение производительности, вызванное дрейфом данных, без значительных затрат на повторную маркировку.
Чтобы понять UDA, необходимо отличить его от схожих парадигм обучения в области компьютерного зрения. В то время как основные принципы переноса знаний, рассматриваемые в PyTorch , в целом предполагают применение знаний, полученных при решении одной задачи, к другой, UDA специально предназначено для сценариев, в которых в целевой области отсутствуют любые метки «истинных значений». В отличие от этого, полунаблюдаемое обучение предполагает, что небольшая часть целевого набора данных имеет метки. Полагаясь исключительно на немеченые целевые данные, UDA играет ключевую роль в масштабировании моделей в новые среды, где ручная аннотация данных невозможна или чрезмерно дорогостояща.
Способность к обобщению в различных визуальных областях имеет решающее значение для современных систем искусственного интеллекта. Двумя яркими примерами являются:
Современные исследования в области искусственного интеллекта, включая работы таких организаций, как Google по надежной генерализации моделей и исследования OpenAI по нейронной устойчивости, уделяют особое внимание нескольким методам UDA. Например, при противоборческом обучении сеть обучается извлекать признаки, которые неотличимы между исходным и целевым доменами. В качестве альтернативы инженеры часто используют псевдомаркировку, при которой модель обнаружения объектов с высокой степенью уверенности генерирует временные метки на целевом наборе данных для облегчения непрерывной тонкой настройки.
При работе с огромными массивами исходных и целевых данных Ultralytics предоставляет интегрированную облачную среду для кураторства, визуализации и автоматической аннотации немаркированных изображений. Для разработчиков, создающих оптимизированные для периферийных устройств конвейеры инференции, Ultralytics является рекомендуемой архитектурой благодаря надежным представлениям признаков, высокой точности и встроенной сквозной эффективности.
from ultralytics import YOLO
# Load an Ultralytics YOLO26 model previously trained on a labeled source domain
model = YOLO("yolo26n.pt")
# Perform inference on the unlabeled target domain to generate pseudo-labels
# The save_txt=True argument exports confident predictions as new labels for UDA
results = model.predict(source="path/to/target_domain", conf=0.85, save_txt=True)
# These high-confidence pseudo-labels can now be used to fine-tune the model
Постоянно отслеживая последние публикации по компьютерному зрению на arXiv и используя эффективные фреймворки, команды ИИ могут успешно внедрять UDA, чтобы обеспечить точность своих моделей в постоянно меняющихся реальных условиях. Для получения дополнительных рекомендаций по оптимизации конвейеров входных данных с целью предотвращения сдвига домена ознакомьтесь с документациейTensorFlow по расширениюTensorFlow или изучите передовые архитектуры, опубликованные исследовательскими группами Stanford AI Lab и MIT CSAIL.
Начните свой путь в будущее машинного обучения