線形回帰の基礎とAIにおける役割を探る。Ultralytics 回帰を用いて正確な物体検出と境界ボックス座標を算出する仕組みを学ぶ。
線形回帰は、基本的な統計手法であり、 従属変数(ターゲット)と一つ以上の独立変数(特徴量)の間の関係をモデル化するために使用される 教師あり学習の基盤となるアルゴリズムである。 分類アルゴリズムが離散的なカテゴリを予測するのとは異なり、線形回帰は連続的な出力を予測するため、特定の数値を予測するタスクに不可欠です。その単純さと解釈可能性は、モデルが誤差を最小化することでデータから学習する中核的な仕組みを紹介するものであり、より複雑な機械学習(ML)概念を理解するための入り口として機能します。
この手法の主な目的は、データパターンを最もよく説明する「最適近似直線」―高次元では超平面―を見つけることである。これを達成するため、アルゴリズムは入力特徴量の重み付き和とバイアス項を計算する。学習過程において、モデルはこれらの内部パラメータ(重みとバイアス)を反復的に調整する。 weights and biasesを反復的に調整し、予測値と実際の真値との誤差を最小化する。
この不一致は損失関数を用いて定量化され、 最も一般的な選択は 平均二乗誤差(MSE)である。 損失を効果的に最小化するため、 勾配降下法などの 最適化アルゴリズムを用いて 重みを更新する。モデルが訓練データのノイズに 過度に適合すると過学習のリスクがあり、 一方、基礎的な傾向を捉えきれないほど単純なモデルは 過少学習に陥る。
データ分析における 単純な予測モデリングと関連付けられることが多いが、線形回帰の原理は高度な深層学習(DL)アーキテクチャに深く組み込まれている。
この用語をロジスティック回帰と区別することが重要です。 どちらも線形モデルですが、出力は大きく異なります。 線形回帰は連続的な数値(例:自動車の価格)を予測します。 一方、ロジスティック回帰は分類タスクに使用され、入力が特定のカテゴリに属する確率(例:メールが「スパム」か「スパムでない」か)を予測します。これは線形出力をシグモイド関数などの活性化関数に通すことで実現されます。
コンピュータビジョンにおいて、YOLO26のようなモデルが物体を検出する際、境界ボックスの座標は回帰タスクの結果である。モデルは物体を正確に位置特定するために連続値を予測する。
from ultralytics import YOLO
# Load the YOLO26 model (nano version)
model = YOLO("yolo26n.pt")
# Run inference on an image
# The model uses regression to determine the exact box placement
results = model("https://ultralytics.com/images/bus.jpg")
# Display the continuous regression outputs (x, y, width, height)
for box in results[0].boxes:
print(f"Box Regression Output (xywh): {box.xywh.numpy()}")
これらの回帰機能を活用したカスタムモデルを特殊なデータセット向けに訓練したいユーザーは、 Ultralytics を利用して効率的なアノテーションとクラウドトレーニングを実現できます。 これらの基本的な回帰原理を理解することは、 人工知能(AI)および コンピュータビジョンにおける複雑なタスクを習得するための確固たる基盤となります。