Important
この機能は ベータ版です。
このページには、サーバーレス GPU コンピューティングで分散データ並列 (DDP) トレーニングを使用するためのノートブックの例が含まれています。 これらの例では、パフォーマンスを向上させるために、複数の GPU とノード間でトレーニングをスケーリングする方法を示します。
DDP を使用して合成データセット上の単純な多層パーセプトロン (MLP) ニューラル ネットワークをトレーニングします。
次のノートブックでは、Azure Databricks 上の PyTorch 分散 データ並列 (DDP) モジュールとサーバーレス GPU リソースを使用した単純な多層パーセプトロン (MLP) ニューラル ネットワークの分散トレーニングを示します。