Yolo Vision Shenzhen
Шэньчжэнь
Присоединиться сейчас
Глоссарий

Недообучение

Узнайте, как выявлять, предотвращать и устранять недообучение в моделях машинного обучения, используя экспертные советы, стратегии и примеры из реального мира.

Недооценка возникает в Машинное обучение (МЛО), когда статистическая модель или алгоритм слишком прост для того, чтобы отразить глубинную структуру данных. Это описывает сценарий, в котором модель не может адекватно изучить взаимосвязи между входными и целевыми переменными. Поскольку модель не может уловить сигнал в данных, она демонстрирует низкую производительность на обучающих данных и плохо обобщается на новые, неизвестные данных. Недостаточно приспособленная модель обычно страдает от высокой смещение, то есть она делает сильные, часто ошибочные предположения о данных, что приводит к пропуску закономерностей и низкой точности.

Признаки и симптомы недостаточной посадки

Обнаружение недостаточной подгонки обычно не вызывает затруднений на этапе оценки модели. Основным показателем является плохая низкие показатели производительности, такие как высокий уровень ошибок или низкая точность, как на обучающем наборе, так и на как по обучающему набору, так и по данным проверки. Если функция потерь остается высокой и не уменьшается если функция потерь остается высокой и не уменьшается с течением времени, то модель, скорее всего, недостаточно приспособлена. В отличие от чрезмерной подгонки, когда модель хорошо работает на обучающих данных, но плохо - на проверочных. тренировочных данных, но плохо работает на проверочных данных, недооптимизация представляет собой неспособность выучить задачу по существу с самого начала. начала. Анализ кривых обучения может визуально подтвердить такое поведение; модель с недостаточной приспособленностью будет показывать кривые обучения и проверки, которые быстро сходятся, но но с высоким уровнем ошибок.

Недооценка против переоценки

Чтобы понять, что такое underfitting, полезно сравнить его с его противоположностью, чрезмерной подгонки. Эти два понятия представляют собой крайности компромисса между смещением и дисперсией, который является центральное место в создании надежных систем ИИ.

  • Недооценка (высокая погрешность): Модель слишком проста (например, линейная модель для нелинейных данных). Она Она уделяет слишком мало внимания обучающим данным и чрезмерно упрощает проблему.
  • Избыточная подгонка (высокая дисперсия): Модель слишком сложна. Она запоминает обучающие данные, включая шум и выбросы, что делает ее неспособной к обобщению на новые данные.

Цель глубокого обучения (ГОО) и других дисциплин ИИ заключается в том, чтобы найти "золотую середину" между этими двумя крайностями, создав модель, которая была бы достаточно сложной. для изучения закономерностей, но достаточно простую для обобщения.

Общие причины и решения

Несколько факторов могут привести к недостаточной подгонке, но их часто можно устранить, скорректировав архитектуру модели или конвейер обработки данных. архитектуры модели или конвейера обработки данных.

  • Простота модели: Использование линейной модели для сложного нелинейного набора данных - частая причина.
  • Недостаточно возможностей: В модели может не хватать исходных данных для точного прогнозирования.
  • Чрезмерная регуляризация: Методы, разработанные для предотвращения чрезмерной подгонки, иногда могут применяться слишком агрессивно.
  • Недостаточное время обучения: Слишком ранняя остановка процесса обучения не позволяет модели сходимости.
    • Решение: Проводите обучение в течение большего количества эпох, что дает алгоритму оптимизации больше времени для минимизации потерь.

Реальные примеры

  1. Прогнозирование цен на недвижимость: Представьте, что вы используете простую линейной регрессионной модели для прогнозирования цен на жилье цены на жилье, основываясь исключительно на площади. В реальном мире на цены на жилье влияют сложные нелинейные факторы, такие как местоположение, качество соседей и тенденции рынка. Линейная модель не сможет учесть эти нюансы, что приведет к к неполной подгонке и плохим плохим результатам прогнозного моделирования, при котором оценки постоянно оказываются неточными.
  2. Диагностика медицинских изображений: в ИИ в здравоохранении, обнаружение опухолей на снимках МРТ требует идентификации сложных форм и текстур. Если разработчики используют неглубокую сеть или модель с очень небольшим количеством параметров для этой задачи обнаружения объектов, то модель, скорее всего, не сможет отличить опухоль от здоровой ткани. Ей не хватает "мощности" для обучения детальных характеристик, необходимых для высокой чувствительности и специфичности.

Решение проблемы недостаточной подгонки с помощью кода

В контексте компьютерного зрения недооценка часто происходит при использовании варианта модели, который слишком мал для сложности задачи (например, обнаружение мелких объектов на беспилотных снимках высокого разрешения). При этом Python Пример демонстрирует, как перейти от меньшей модели к большей, с более широкими возможностями модель с большими возможностями, используя ultralytics библиотека для устранения возможной недооценки.

from ultralytics import YOLO

# If 'yolo11n.pt' (Nano) is underfitting and yielding low accuracy,
# upgrade to a model with higher capacity like 'yolo11l.pt' (Large).
model = YOLO("yolo11l.pt")

# Train the larger model.
# Increasing epochs also helps the model converge if it was previously underfitting.
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

Перейдя на более крупный Ultralytics YOLO11 модель и обеспечивая достаточной продолжительности обучения, система приобретает параметры, необходимые для изучения сложных паттернов, что позволяет эффективно уменьшая недостаточное соответствие. Для решения чрезвычайно сложных задач будущие архитектуры, такие как YOLO26 (в настоящее время находится в разработке), призваны обеспечить еще большую плотность и точность. В будущем такие архитектуры, как YOLO26 (в настоящее время находится в разработке), обеспечат еще большую плотность и точность. Чтобы убедиться в том, что ваша модель больше не является недооптимизированной, всегда оценивайте ее на надежном тестовом наборе данных.

Присоединяйтесь к сообществу Ultralytics

Присоединяйтесь к будущему ИИ. Общайтесь, сотрудничайте и развивайтесь вместе с мировыми новаторами

Присоединиться сейчас