Узнайте, как выявлять, предотвращать и устранять недообучение в моделях машинного обучения, используя экспертные советы, стратегии и примеры из реального мира.
Недооценка возникает в Машинное обучение (МЛО), когда статистическая модель или алгоритм слишком прост для того, чтобы отразить глубинную структуру данных. Это описывает сценарий, в котором модель не может адекватно изучить взаимосвязи между входными и целевыми переменными. Поскольку модель не может уловить сигнал в данных, она демонстрирует низкую производительность на обучающих данных и плохо обобщается на новые, неизвестные данных. Недостаточно приспособленная модель обычно страдает от высокой смещение, то есть она делает сильные, часто ошибочные предположения о данных, что приводит к пропуску закономерностей и низкой точности.
Обнаружение недостаточной подгонки обычно не вызывает затруднений на этапе оценки модели. Основным показателем является плохая низкие показатели производительности, такие как высокий уровень ошибок или низкая точность, как на обучающем наборе, так и на как по обучающему набору, так и по данным проверки. Если функция потерь остается высокой и не уменьшается если функция потерь остается высокой и не уменьшается с течением времени, то модель, скорее всего, недостаточно приспособлена. В отличие от чрезмерной подгонки, когда модель хорошо работает на обучающих данных, но плохо - на проверочных. тренировочных данных, но плохо работает на проверочных данных, недооптимизация представляет собой неспособность выучить задачу по существу с самого начала. начала. Анализ кривых обучения может визуально подтвердить такое поведение; модель с недостаточной приспособленностью будет показывать кривые обучения и проверки, которые быстро сходятся, но но с высоким уровнем ошибок.
Чтобы понять, что такое underfitting, полезно сравнить его с его противоположностью, чрезмерной подгонки. Эти два понятия представляют собой крайности компромисса между смещением и дисперсией, который является центральное место в создании надежных систем ИИ.
Цель глубокого обучения (ГОО) и других дисциплин ИИ заключается в том, чтобы найти "золотую середину" между этими двумя крайностями, создав модель, которая была бы достаточно сложной. для изучения закономерностей, но достаточно простую для обобщения.
Несколько факторов могут привести к недостаточной подгонке, но их часто можно устранить, скорректировав архитектуру модели или конвейер обработки данных. архитектуры модели или конвейера обработки данных.
В контексте компьютерного зрения недооценка часто происходит при использовании варианта модели, который слишком мал для
сложности задачи (например, обнаружение мелких объектов на беспилотных снимках высокого разрешения). При этом
Python Пример демонстрирует, как перейти от меньшей модели к большей, с более широкими возможностями
модель с большими возможностями, используя ultralytics библиотека для устранения возможной недооценки.
from ultralytics import YOLO
# If 'yolo11n.pt' (Nano) is underfitting and yielding low accuracy,
# upgrade to a model with higher capacity like 'yolo11l.pt' (Large).
model = YOLO("yolo11l.pt")
# Train the larger model.
# Increasing epochs also helps the model converge if it was previously underfitting.
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
Перейдя на более крупный Ultralytics YOLO11 модель и обеспечивая достаточной продолжительности обучения, система приобретает параметры, необходимые для изучения сложных паттернов, что позволяет эффективно уменьшая недостаточное соответствие. Для решения чрезвычайно сложных задач будущие архитектуры, такие как YOLO26 (в настоящее время находится в разработке), призваны обеспечить еще большую плотность и точность. В будущем такие архитектуры, как YOLO26 (в настоящее время находится в разработке), обеспечат еще большую плотность и точность. Чтобы убедиться в том, что ваша модель больше не является недооптимизированной, всегда оценивайте ее на надежном тестовом наборе данных.