Yolo 深圳
深セン
今すぐ参加
用語集

分散学習

分散トレーニングでAIトレーニングを加速しましょう!トレーニング時間の短縮、モデルのスケーリング、複雑なMLプロジェクトのリソース最適化の方法を学びます。

分散トレーニングは、機械学習における手法の一つであり、モデルのトレーニング負荷を複数のプロセッサやマシンに分割する。このアプローチは、大規模なデータセットや複雑なニューラルネットワークアーキテクチャを扱う上で不可欠であり、単一デバイスでのトレーニングでは非現実的な時間を要するケースに対応する。複数のグラフィックスプロセッシングユニット(GPU)やテンソル処理ユニット(TPU)の計算能力を組み合わせることで、分散トレーニングは開発サイクルを大幅に加速させ、研究者やエンジニアがより迅速に反復処理を行い、モデルの精度向上を実現することを可能にする。 Tensor ユニット(TPU)の総合的な計算能力を活用することで、分散トレーニングは開発サイクルを大幅に加速させ、研究者やエンジニアがより迅速に反復処理を行い、モデルの精度向上を実現することを可能にします。

分散型トレーニングの仕組み

分散トレーニングの核心となる考え方は並列化である。1つのチップ上でデータを順次処理する代わりに、 タスクはより小さなチャンクに分割され、それらが同時に処理される。これを実現する主な戦略は2つある:

実際のアプリケーション

分散トレーニングは、従来は計算上不可能だった問題の解決を可能にすることで産業を変革した。

  • 自動運転: 安全な自動運転車両の開発には、ペタバイト規模の映像データとセンサーデータの分析が不可欠です。自動車エンジニアは、大規模分散クラスターを用いて、リアルタイムのセマンティックセグメンテーションと車線検出のためのビジョンモデルを訓練します。この大規模な処理能力により、自動車システムのAIが多様な道路状況に確実に対応できるよう保証されます。
  • 医療画像診断:医療分野において、MRIなどの高解像度3Dスキャンを分析するには膨大なメモリと処理能力が必要となる。分散トレーニングにより、研究者は腫瘍検出やその他の重要タスク向けの高性能診断ツールを構築できる。NVIDIA などのフレームワークを活用することで、病院はメモリボトルネックに直面することなく多様なデータセットでモデルを訓練でき、医療におけるAIの成果を向上させられる。

Ultralyticsによる分散トレーニングの活用

について ultralytics ライブラリは分散データ並列(DDP)トレーニングの実装を容易にします。 最先端モデルのトレーニングをスケーリングできます。 YOLO26 複数のGPUにまたがるモデルを、 トレーニング引数でデバイスインデックスを指定するだけで簡単に実行できます。

from ultralytics import YOLO

# Load a pre-trained YOLO26 model
model = YOLO("yolo26n.pt")

# Train the model using two GPUs (device 0 and 1)
# The library automatically handles the DDP communication backend
results = model.train(data="coco8.yaml", epochs=100, device=[0, 1])

関連概念と比較

機械学習エコシステムにおける類似用語と分散トレーニングを区別することは、それぞれの具体的な役割を理解する上で有益である:

  • 分散学習とフェデレーテッドラーニングの比較: 両者とも複数のデバイスを扱うが、目的が異なる。 分散学習は通常、高速化のためにデータを高性能クラスターに集約する。 一方、フェデレーテッドラーニングは データプライバシーを優先し、 生データがソースを離れることなくグローバルモデルを更新するため、 データをユーザーデバイス(スマートフォンなど)に分散したまま保持する。
  • 対 高性能コンピューティング(HPC):HPCは気象予測などの科学シミュレーション向けスーパーコンピューティングを含む広範な分野である分散トレーニングは、深層学習における最適化アルゴリズムに適用されるHPCの特定用途である。 GPU間のレイテンシを最小化するため、NVIDIA 専用通信ライブラリに依存することが多い。

クラウドプラットフォームによるスケーリング

分散トレーニングのインフラ管理は複雑になりがちです。現代のプラットフォームは管理環境を提供することでこれを簡素化します。Ultralytics 、ユーザーがデータセットを管理し、クラウド環境やローカルクラスターにデプロイ可能なトレーニング実行を開始できます。この統合により、データアノテーションから 最終的なモデルデプロイまでのワークフローが合理化され、複数GPUへのスケールアップが可能な限りシームレスに行われます。 同様に、Google Vertex AIやAmazon SageMakerといったクラウドプロバイダーは、企業規模での分散トレーニングジョブ実行に向けた堅牢なインフラストラクチャを提供しています。

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加