次の方法で共有


分散データ並列 (DDP) トレーニング

Important

この機能は ベータ版です

このページには、サーバーレス GPU コンピューティングで分散データ並列 (DDP) トレーニングを使用するためのノートブックの例が含まれています。 これらの例では、パフォーマンスを向上させるために、複数の GPU とノード間でトレーニングをスケーリングする方法を示します。

DDP を使用して合成データセット上の単純な多層パーセプトロン (MLP) ニューラル ネットワークをトレーニングします。

次のノートブックでは、Azure Databricks 上の PyTorch 分散 データ並列 (DDP) モジュールとサーバーレス GPU リソースを使用した単純な多層パーセプトロン (MLP) ニューラル ネットワークの分散トレーニングを示します。

Notebook

ノートブックを入手