Изучите основы линейной регрессии и ее роль в искусственном интеллекте. Узнайте, как Ultralytics использует регрессию для точного обнаружения объектов и определения координат ограничивающих прямоугольников.
Линейная регрессия — это фундаментальный статистический метод и базовый алгоритм в обучении с учителем, используемый для моделирования взаимосвязи между зависимой переменной (целью) и одной или несколькими независимыми переменными (особенностями). В отличие от алгоритмов классификации, которые предсказывают дискретные категории, линейная регрессия предсказывает непрерывный результат, что делает ее необходимой для задач, цель которых — прогнозировать конкретные числовые значения. Ее простота и интерпретируемость служат входом в понимание более сложных концепций машинного обучения (ML), поскольку она вводит основные механизмы того, как модели учатся на данных, минимизируя ошибки.
Основная цель этой техники — найти «линию наилучшего приближения» — или гиперплоскость в более высоких измерениях — которая наилучшим образом описывает структуру данных. Для этого алгоритм вычисляет взвешенную сумму входных характеристик плюс сдвиг. В процессе обучения модель итеративно корректирует эти внутренние параметры, известные как weights and biases, чтобы уменьшить расхождение между своими прогнозами и фактическими данными.
Это несоответствие количественно оценивается с помощью функции потерь, причем наиболее распространенным выбором является среднеквадратичная ошибка (MSE). Для эффективной минимизации потери используется алгоритм оптимизации, такой как градиентный спуск, для обновления весов. Если модель слишком близко соответствует шуму в учебных данных, она подвергается риску переобучения, тогда как модель, которая слишком проста, чтобы уловить основную тенденцию, страдает от недообучения.
Хотя линейная регрессия часто ассоциируется с простым прогнозированием в аналитике данных, принципы линейной регрессии глубоко укоренились в передовых архитектурах глубокого обучения (DL).
Важно отличать этот термин от логистической регрессии. Хотя оба являются линейными моделями, их результаты значительно различаются. Линейная регрессия предсказывает непрерывное числовое значение (например, цену автомобиля). В отличие от этого, логистическая регрессия используется для задач классификации, предсказывая вероятность того, что входные данные относятся к определенной категории (например, является ли электронное письмо «спамом» или «не спамом»), пропуская линейный результат через активационную функцию, такую как сигмоидная функция.
В контексте компьютерного зрения, когда модель типа YOLO26 обнаруживает объект, координаты ограничивающей рамки являются результатом регрессионной задачи. Модель прогнозирует непрерывные значения для точного определения местоположения объекта.
from ultralytics import YOLO
# Load the YOLO26 model (nano version)
model = YOLO("yolo26n.pt")
# Run inference on an image
# The model uses regression to determine the exact box placement
results = model("https://ultralytics.com/images/bus.jpg")
# Display the continuous regression outputs (x, y, width, height)
for box in results[0].boxes:
print(f"Box Regression Output (xywh): {box.xywh.numpy()}")
Пользователи, желающие обучить пользовательские модели, которые используют эти возможности регрессии для специализированных наборов данных, могут воспользоваться Ultralytics для оптимизации аннотирования и обучения в облаке. Понимание этих основных принципов регрессии обеспечивает прочную основу для освоения сложных задач в области искусственного интеллекта (ИИ) и компьютерного зрения.