ニューラルネットワークから実世界のAIアプリケーションまで、ディープラーニング(DL)の基礎を探求しましょう。Ultralytics トレーニングとデプロイをいかに簡素化するかを学びます。
深層学習(DL)は機械学習(ML)の特殊な分野であり、 人間の脳が情報を処理する方法を模倣する。従来のMLが手動による特徴抽出に依存することが多いのに対し、 深層学習は人工ニューラルネットワーク(ANN)と呼ばれる多層構造を用いて このプロセスを自動化する。 これらのネットワークは、階層的にデータを処理する相互接続されたノード(ニューロン)の層で構成される。この「深さ」により、モデルは画像・音声・テキストなどの生データから直接複雑なパターンや表現を学習でき、非構造化データ問題への対応において非常に強力である。
深層学習の中核的な仕組みは、データを複数の非線形処理ユニット層に通すことにある。標準的な順伝播ニューラルネットワークでは、情報は入力層から複数の「隠れ」層を経て、最終的に出力層へと流れる。学習フェーズでは、ネットワークは予測誤差に基づいて内部パラメータ(weights and biasesと呼ばれる)を調整する。この調整は通常、損失を最小化するために、確率的勾配降下法(SGD)などの最適化アルゴリズムとバックプロパゲーションを組み合わせて達成される。
深層学習は膨大なデータ処理において真価を発揮する。単純なアルゴリズムが性能の頭打ちに陥る可能性があるのに対し、深層学習モデルは一般的に、学習データの規模が増大するにつれて性能を向上させ続ける。この拡張性が、大規模なアーキテクチャの学習に必要な重い計算負荷を加速するために高性能GPUが頻繁に採用される主たる理由である。
深層学習は機械学習と混同されがちだが、その違いは人間の介入の度合いと アーキテクチャの複雑さに存在する。機械学習は通常、構造化されたデータと 人間が設計した特徴量が必要である。これに対し深層学習は 特徴量の自動抽出を実行する。
深層学習には特定のデータタイプを扱うための複数の特殊なアーキテクチャが存在します:
深層学習は学術理論から現代技術スタックの中核へと移行した。その影響を示す具体的な例を二つ挙げる:
ツールのようなもの PyTorch そしてTensorFlow 深層学習へのアクセスをTensorFlow 、
高レベルなインターフェースによりさらに容易になった。 ultralytics このパッケージにより、開発者は
最先端のアーキテクチャを活用でき、ニューラルネットワークを一から設計する必要がありません。
事前学習済みディープラーニングモデルの読み込みと画像に対する推論の実行に関する簡潔な例を以下に示す:
from ultralytics import YOLO
# Load a pre-trained YOLO26 model (a Convolutional Neural Network)
model = YOLO("yolo26n.pt")
# Perform object detection on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Display the results to see identified objects and bounding boxes
results[0].show()
この分野は、より効率的で高性能なモデルへと急速に進化している。転移学習のような技術により、ユーザーは大規模な事前学習済みモデルを小規模な特定データセットで微調整でき、大幅な時間と計算リソースの節約が可能となった。さらに、生成AIの台頭は、現実的な画像からコードに至るまで、新たなコンテンツを創出する深層学習の能力を実証している。
ワークフローの効率化を目指すチーム向けに、 Ultralytics ディープラーニングプロジェクトのライフサイクル管理を包括的に支援する環境を提供します。 共同データアノテーションからクラウドベースのトレーニング・デプロイメントまで、 これらのツールは実験的研究と実運用可能なアプリケーションの間のギャップを埋めるのに役立ちます。 数学的基盤をより深く理解するには、 MIT Deep Learning Bookなどのリソースが広範な理論的カバーを提供します。