次の方法で共有


Azure AI Foundry モデルのデプロイの概要

Azure AI Foundry のモデル カタログは、生成型 AI アプリケーションを構築するために、さまざまな Foundry モデルを検出して使用するためのハブです。 推論要求を受信できるようにモデルをデプロイする必要があります。 Azure AI Foundry には、ニーズとモデルの要件に応じて、Foundry Models の包括的なデプロイ オプションスイートが用意されています。

配置オプション

Azure AI Foundry には、プロビジョニングする必要があるモデルとリソースの種類に応じて、いくつかのデプロイ オプションが用意されています。 次の展開オプションを使用できます。

  • Azure AI Foundry リソースでの標準デプロイ
  • サーバーレス API エンドポイントへのデプロイ
  • マネージド コンピューティングへのデプロイ

Azure AI Foundry ポータルでは、環境と構成に基づいてデプロイ オプションが自動的に選択される場合があります。 可能な限り、デプロイには Azure AI Foundry リソースを使用します。 複数のデプロイ オプションをサポートするモデルでは、既定でデプロイ用の Azure AI Foundry リソースが使用されます。 その他のデプロイ オプションにアクセスするには、デプロイに Azure CLI または Azure Machine Learning SDK を使用します。

Azure AI Foundry リソースでの標準デプロイ

Azure AI Foundry リソース (旧称 Azure AI Services リソース) は、Azure AI Foundry で 推奨されるデプロイ オプション です。 リージョン、データ ゾーン、グローバル処理など、最も幅広い機能を提供し、標準および プロビジョニングスループット (PTU) オプションを提供します。 Azure AI Foundry Models のフラッグシップ モデルでは、このデプロイ オプションがサポートされています。

このデプロイ オプションは、次の場合に使用できます。

  • Azure AI Foundry リソース
  • Azure OpenAI リソース1
  • Azure AI Foundry リソースに接続されている場合の Azure AI ハブ

1Azure OpenAI リソースを使用する場合、モデル カタログにはデプロイ用の Foundry Models に Azure OpenAI のみが表示されます。 Azure AI Foundry リソースにアップグレードすることで、Foundry モデルの完全な一覧を取得できます。

Azure AI Foundry リソースでの標準デプロイを開始するには、「 方法: Azure AI Foundry モデルにモデルをデプロイする」を参照してください。

サーバーレス API エンドポイント

このデプロイ オプションは、Azure AI ハブ リソースでのみ使用できます。 これにより、API を介してアクセス可能な、モデルをホストするための専用エンドポイントを作成できます。 Azure AI Foundry Models では、従量課金制のサーバーレス API エンドポイントがサポートされており、サーバーレス API エンドポイントのリージョンデプロイのみを作成できます。

サーバーレス API エンドポイントへのデプロイを開始するには、「 モデルをサーバーレス API デプロイとしてデプロイする」を参照してください。

マネージド コンピューティング

このデプロイ オプションは、Azure AI ハブ リソースでのみ使用できます。 これにより、専用 のコンピューティングでモデルをホストするための専用エンドポイントを作成できます。 モデルをホストするには、サブスクリプションにコンピューティング クォータが必要であり、コンピューティングのアップタイムごとに課金されます。

マネージド コンピューティングのデプロイは、次のようなモデル コレクションに必要です。

  • 顔の抱き合い
  • NVIDIA 推論マイクロサービス (NIM)
  • 業界モデル (Saifr、Rockwell、バイエル、セランス、サイト マシン、ページ AI、SDAIA)
  • Databricks
  • カスタム モデル

開始するには、 マネージド コンピューティング デプロイをデプロイして推論する方法と従量課金制のマネージド コンピューティングに Azure AI Foundry Models をデプロイする方法に関するページを参照してください。

デプロイ オプションの機能

可能な限り 、Azure AI Foundry リソースで Standard デプロイ を使用します。 このデプロイ オプションは、使用可能な展開オプションの中で最も多くの機能を提供します。 次の表に、各デプロイ オプションの特定の機能の詳細を示します。

能力 Azure AI Foundry リソースでの標準デプロイ サーバーレス API エンドポイント マネージド コンピューティング
デプロイできるモデルはどれですか? ファウンドリーモデル 従量課金制請求の Foundry Models オープン モデルとカスタム モデル
デプロイ リソース Azure AI Foundry リソース AI プロジェクト (AI ハブ リソース内) AI プロジェクト (AI ハブ リソース内)
AI ハブが必要 いいえ イエス イエス
データ処理オプション リージョナル
データゾーン
グローバル
リージョン リージョン
プライベート ネットワーク イエス イエス イエス
コンテンツ フィルター イエス イエス いいえ
カスタム コンテンツのフィルター処理 イエス いいえ いいえ
キーレス認証 イエス いいえ いいえ
課金情報ベース トークン使用量と プロビジョニング済みスループット ユニット トークンの使用2 コンピュートコア時間3

2 最小限のエンドポイント インフラストラクチャは、1 分あたりに課金されます。 サーバーレスデプロイでモデルをホストするインフラストラクチャには課金されません。 エンドポイントを削除したら、それ以上の料金は発生しません。

3 課金は、製品レベルと、作成時以降にデプロイで使用されるインスタンスの数に応じて、分単位で行われます。 エンドポイントを削除したら、それ以上の料金は発生しません。