ニューラルネットワークから実世界のAIアプリケーションまで、深層学習(DL)の基礎を探ります。Ultralytics YOLO26がトレーニングとデプロイをどのように簡素化するかを学びましょう。
ディープラーニング(DL)は、人間の脳が情報を処理する方法を模倣した 機械学習(ML)の専門的なサブセットです。 従来のMLが手動の特徴抽出に依存することが多いのに対し、ディープラーニングは 人工ニューラルネットワーク(ANN)として知られる多層構造を使用することでこれを自動化します。これらのネットワークは、 階層的な方法でデータを処理する相互接続されたノード、つまりニューロンの層で構成されています。この 「深さ」により、モデルは画像、音声、テキストなどの生データから複雑なパターンと表現を直接学習でき、 非構造化データの問題に対処する上で非常に強力になります。
ディープラーニングの核となるメカニズムは、データを複数の非線形処理ユニット層に通すことを含みます。標準的な順伝播型ニューラルネットワークでは、情報は入力層から複数の「隠れ層」を通り、最終的に出力層へと流れます。学習フェーズ中、ネットワークは予測の誤差に基づいて、重みとバイアスとして知られる内部パラメータを調整します。この調整は通常、損失を最小化するために、stochastic gradient descent (SGD)とバックプロパゲーションを組み合わせた最適化アルゴリズムを使用して行われます。
深層学習は、膨大な量のデータを扱う際に真価を発揮します。性能が頭打ちになる可能性のある単純なアルゴリズムとは異なり、DLモデルは一般的に訓練データのサイズが増加するにつれて改善し続けます。このスケーラビリティが、これらの大規模なアーキテクチャの訓練に必要な重い計算負荷を高速化するために、高性能なGPUがしばしば使用される主な理由です。
深層学習は機械学習と混同されがちですが、その違いは人間の介入のレベルとアーキテクチャの複雑さにあります。機械学習は通常、構造化されたデータと人間が設計した特徴量を必要とします。対照的に、深層学習は自動的な特徴抽出を実行します。
ディープラーニングには、特定の種類のデータを処理するためのいくつかの特殊なアーキテクチャが存在します。
深層学習は、学術理論から現代のテクノロジースタックの中核へと移行しました。その影響を示す具体的な2つの例を挙げます。
~のようなツール PyTorch TensorFlowはディープラーニングへのアクセスを民主化しましたが、高レベルのインターフェースにより、さらに容易になりました。 ultralytics パッケージを使用すると、開発者はニューラルネットワークを一から設計することなく、最先端のアーキテクチャを活用できます。
事前学習済み深層学習モデルをロードし、画像で推論を実行する簡潔な例です。
from ultralytics import YOLO
# Load a pre-trained YOLO26 model (a Convolutional Neural Network)
model = YOLO("yolo26n.pt")
# Perform object detection on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Display the results to see identified objects and bounding boxes
results[0].show()
この分野は、より効率的で高性能なモデルへと急速に進化しています。転移学習のような技術により、ユーザーは大規模な事前学習済みモデルをより小規模で特定のデータセットでファインチューニングでき、時間と計算リソースを大幅に節約できます。さらに、生成AIの台頭は、現実的な画像からコードまで、新しいコンテンツを作成する深層学習の能力を示しています。
ワークフローを合理化したいチームにとって、Ultralytics Platformは、深層学習プロジェクトのライフサイクルを管理するための包括的な環境を提供します。共同データアノテーションからクラウドベースのトレーニングとデプロイメントまで、これらのツールは実験的な研究と本番環境対応のアプリケーションとの間のギャップを埋めるのに役立ちます。数学的基礎をより深く理解するためには、MIT Deep Learning Bookのようなリソースが広範な理論的カバーを提供しています。

未来の機械学習で、新たな一歩を踏み出しましょう。