Important
この機能は ベータ版です。
このページでは、サーバーレス GPU コンピューティングを使用して大規模言語モデル (LLM) を微調整するためのノートブックの例を示します。 これらの例では、Low-Rank 適応 (LoRA) や完全な監視による微調整などのパラメーター効率の高い方法など、微調整のさまざまな方法を示します。
これらのノートブックを実行する前に、 ベスト プラクティスのチェックリストを参照してください。
Qwen2-0.5B モデルを微調整する
次のノートブックでは、次を使用して Qwen2-0.5B モデルを効率的に微調整する方法の例を示します。
- 教師あり微調整のためのトランスフォーマー強化学習 (TRL)
- 最適化された Triton カーネルを使用したメモリ効率の高いトレーニングのための Liger カーネル。
- パラメーター効率の高い微調整のための LoRA。
Notebook
Unsloth で Llama-3.2-3B を微調整する
このノートブックでは、Unsloth ライブラリを使用して Llama-3.2-3B を微調整する方法を示します。
Notebook
ビデオ デモ
このビデオでは、ノートブックについて詳しく説明します (12 分)。
DeepSpeed と TRL を使用して教師ありの微調整
このノートブックでは、サーバーレス GPU Python API を使用して、DeepSpeed ZeRO Stage 3 最適化を使用して トランスフォーマー強化学習 (TRL) ライブラリ を使用して監視微調整 (SFT) を実行する方法を示します。