次の方法で共有


大規模言語モデル (LLM)

Important

この機能は ベータ版です

このページでは、サーバーレス GPU コンピューティングを使用して大規模言語モデル (LLM) を微調整するためのノートブックの例を示します。 これらの例では、Low-Rank 適応 (LoRA) や完全な監視による微調整などのパラメーター効率の高い方法など、微調整のさまざまな方法を示します。

これらのノートブックを実行する前に、 ベスト プラクティスのチェックリストを参照してください。

Qwen2-0.5B モデルを微調整する

次のノートブックでは、次を使用して Qwen2-0.5B モデルを効率的に微調整する方法の例を示します。

  • 教師あり微調整のためのトランスフォーマー強化学習 (TRL)
  • 最適化された Triton カーネルを使用したメモリ効率の高いトレーニングのための Liger カーネル。
  • パラメーター効率の高い微調整のための LoRA。

Notebook

ノートブックを入手

Unsloth で Llama-3.2-3B を微調整する

このノートブックでは、Unsloth ライブラリを使用して Llama-3.2-3B を微調整する方法を示します。

Notebook

ノートブックを入手

ビデオ デモ

このビデオでは、ノートブックについて詳しく説明します (12 分)。

DeepSpeed と TRL を使用して教師ありの微調整

このノートブックでは、サーバーレス GPU Python API を使用して、DeepSpeed ZeRO Stage 3 最適化を使用して トランスフォーマー強化学習 (TRL) ライブラリ を使用して監視微調整 (SFT) を実行する方法を示します。

Notebook

ノートブックを入手