Azure AI Foundry Models は、カスタム の副操縦士の構築、エージェントの構築、既存のアプリケーションの強化、新しい AI 機能の探索など、強力な AI モデルを検出、評価、デプロイするためのワンストップの場所です。
Foundry モデルを使用すると、次のことができます。
- Microsoft、OpenAI、DeepSeek、Hugging Face、Meta などの最先端モデルの豊富なカタログをご覧ください。
- 実際のタスクと独自のデータを使用して、モデルを並べて比較および評価します。
- 微調整、可観測性、責任ある AI 用の組み込みツールにより、自信を持ってデプロイできます。
- 独自のモデルを導入するか、ホストされているモデルを使用するか、Azure サービスとシームレスに統合するか、パスを選択します。
- Foundry Models は、開発者、データ サイエンティスト、エンタープライズ アーキテクトのいずれであっても、安全かつ責任を持って迅速にスケーリングする AI ソリューションを構築するための柔軟性と制御を提供します。
Azure AI Foundry には、AI モデルの包括的なカタログが用意されています。 基盤モデル、推論モデル、小言語モデル、マルチモーダルモデル、ドメイン固有モデル、業界標準など、1900以上のモデルがあります。
カタログは、次の 2 つの主要なカテゴリに分類されています。
これらのカテゴリの違いを理解することは、特定の要件と戦略的目標に基づいて適切なモデルを選択するのに役立ちます。
Azure によって直接販売されるモデル
これらは、Microsoft 製品使用条件に基づき Microsoft によってホストおよび販売されるモデルです。 これらのモデルは厳格な評価を受け、Azure の AI エコシステムに深く統合されています。 モデルはさまざまなトップ プロバイダーから提供されており、強化された統合、最適化されたパフォーマンス、エンタープライズ レベルのサービス レベル アグリーメント (SLA) を含む Microsoft の直接サポートを提供します。
Azure によって直接販売されるモデルの特性:
- Microsoft からの公式ファースト パーティ サポート
- Azure サービスとインフラストラクチャとの高度な統合
- 広範なパフォーマンス ベンチマークと検証
- Microsoft の責任ある AI 標準への準拠
- エンタープライズ レベルのスケーラビリティ、信頼性、およびセキュリティ
これらのモデルには、代替可能なプロビジョニングスループットの利点もあります。つまり、これらのモデルのいずれかでクォータと予約を柔軟に使用できます。
パートナーとコミュニティのモデル
これらのモデルは、Azure AI Foundry モデルの大部分を構成します。 これらのモデルは、信頼できるサード パーティの組織、パートナー、リサーチ ラボ、コミュニティ共同作成者によって提供されます。 これらのモデルは、さまざまなシナリオ、業界、イノベーションをカバーする、特殊で多様な AI 機能を提供します。
パートナーとコミュニティのモデルの特性:
- 外部パートナーおよびコミュニティ共同作成者によって開発およびサポートされている
- ニッチまたは広範なユース ケースに対応するさまざまな特殊なモデル
- 通常、Azure によって提供される統合ガイドラインを使用して、プロバイダー自体によって検証されます
- コミュニティ主導のイノベーションと最先端モデルの迅速な可用性
- それぞれのプロバイダーによって管理されるサポートとメンテナンスを備えた標準の Azure AI 統合
モデルは、マネージド コンピューティングまたは Standard (従量課金制) デプロイ オプションとしてデプロイできます。 モデル プロバイダーは、モデルのデプロイ方法を選択します。
直接モデルとパートナーモデルとコミュニティモデルの選択
Azure AI Foundry モデルからモデルを選択する場合は、次の点を考慮してください。
- ユース ケースと要件: Azure によって直接販売されるモデルは、Azure の深い統合、保証されたサポート、エンタープライズ SLA を必要とするシナリオに最適です。 パートナーとコミュニティのモデルは、特殊なユース ケースやイノベーション主導のシナリオに優れています。
- サポートの期待: Azure によって直接販売されるモデルには、Microsoft が提供する堅牢なサポートとメンテナンスが付属しています。 これらのモデルは、さまざまなレベルの SLA とサポート構造で、プロバイダーによってサポートされています。
- イノベーションと特殊化: パートナーとコミュニティのモデルは、一流の研究所や新しい AI プロバイダーによって開発されることが多い特殊なイノベーションとニッチ機能に迅速にアクセスできます。
モデル コレクション
モデル カタログは、次のようなさまざまなコレクションにモデルを整理します。
Azure で排他的に利用できる Azure OpenAI モデル: Foundry Models の Azure OpenAI との統合を通じて利用できるフラッグシップ Azure OpenAI モデル。 Microsoft では、 Azure OpenAI の製品の使用条件と SLA に従って、これらのモデルとその使用をサポートしています。
Hugging Face ハブのオープン モデル: マネージド コンピューティングによるリアルタイム推論のための Hugging Face ハブの数百のモデル。 Hugging Face は、このコレクションに掲載されているモデルを作成および維持しています。 サポートが必要な場合は、Hugging Face フォーラムまたは Hugging Face サポートを利用してください。 詳細については、Azure AI Foundry を使用したオープン モデルのデプロイに関するページを参照してください。
このフォームを使用して、モデルカタログにモデルを追加する要求を送信できます。
モデル カタログ機能の概要
Azure AI Foundry ポータルのモデルカタログは、生成 AI アプリケーションを構築するための幅広いモデルを検索して使用するためのハブです。 モデル カタログには、Microsoft がトレーニングしたモデルを含め、Azure OpenAI、Mistral、Meta、Cohere、NVIDIA、Hugging Face などのモデル プロバイダー間で数百のモデルが用意されています。 Microsoft 以外のプロバイダーのモデルは、Microsoft 製品使用条件で定義されている、Microsoft 以外の製品であり、モデルに付属される条件に従います。
キーワード検索とフィルターを使用して、ニーズを満たすモデルを検索および検出できます。 モデル カタログには、選択したモデルのモデル パフォーマンス ランキングとベンチマーク メトリックも用意されています。 [ ランキングの参照 ] と [ モデルの比較] を選択してアクセスできます。 ベンチマーク データには、モデル カードの [ベンチマーク] タブからもアクセスできます。
モデル カタログ フィルターでは、次の情報が表示されます。
- コレクション: モデル プロバイダー コレクションに基づいてモデルをフィルター処理できます。
- 業界: 業界固有のデータセットでトレーニングされたモデルをフィルター処理できます。
- 機能: 推論やツールの呼び出しなど、一意のモデル機能をフィルター処理できます。
- デプロイ オプション: 特定のデプロイ オプションをサポートするモデルをフィルター処理できます。
- Standard: このオプションを使用すると、API 呼び出しごとに支払うことができます。
- プロビジョニング済み: 大きくて一貫性のあるボリュームのリアルタイム スコアリングに最適です。
- Batch: コスト最適化のバッチジョブに適しており、待機時間には向いていません。 バッチデプロイでは、プレイグラウンドのサポートは提供されません。
- マネージド コンピューティング: このオプションを使用すると、Azure 仮想マシンにモデルをデプロイできます。 ホスティングと推論処理に対して課金されます。
- 推論タスク: 推論タスクの種類に基づいてモデルをフィルター処理できます。
- タスクの微調整: 微調整タスクの種類に基づいてモデルをフィルター処理できます。
- ライセンス: ライセンスの種類に基づいてモデルをフィルター処理できます。
モデル カードには、次の情報が表示されます。
- クイック ファクト: モデルに関する重要な情報が一目でわかります。
- 詳細: このページには、説明、バージョン情報、サポートされているデータ型など、モデルに関する詳細情報が含まれています。
- ベンチマーク: 選択したモデルのパフォーマンス ベンチマーク メトリックが表示されます。
- 既存のデプロイ: モデルを既にデプロイしている場合は、[既存のデプロイ] タブで見つけることができます。
- ライセンス: モデル ライセンスに関連する法的事項が表示されます。
- 成果物: このタブは、開いているモデルに対してのみ表示されます。 モデル資産を表示し、ユーザー インターフェイスを使用してダウンロードできます。
モデルデプロイ: マネージド コンピューティングと標準デプロイ
モデル カタログには、Azure OpenAI へのデプロイに加えて、使用するモデルをデプロイするための 2 つの異なる方法 (マネージド コンピューティングと標準デプロイ) が用意されています。
次の表に示すように、モデルごとに使用できるデプロイ オプションと機能は異なります。 デプロイ オプションを使用したデータ処理の詳細を確認してください。
モデル デプロイ オプションの機能
特徴 | マネージド コンピューティング | 標準の展開 |
---|---|---|
デプロイ エクスペリエンスと課金 | モデルの重みは、マネージド コンピューティングを備えた専用の仮想マシンにデプロイされます。 マネージド コンピューティングは、1 つ以上のデプロイを持つことができ、推論に REST API が利用可能になります。 デプロイで使用される仮想マシンのコア時間に対して課金されます。 | モデルへのアクセスは、モデルにアクセスするための API をプロビジョニングするデプロイを通じて行われます。 この API は、推論のために Microsoft がホストおよび管理するモデルへのアクセスを提供します。 API への入力と出力に対して (通常はトークンで) 課金されます。 デプロイする前に価格情報が提供されます。 |
API 認証 | キーと Microsoft Entra 認証。 | キーのみ。 |
コンテンツの安全性 | Azure AI Content Safety サービス API を使用します。 | Azure AI Content Safety フィルターを、推論 API と統合して使用できます。 Azure AI Content Safety フィルターは、個別に課金されます。 |
ネットワークの分離 | Azure AI Foundry ハブ用にマネージド ネットワークを構成します。 | マネージド コンピューティングは、使用しているハブの公衆ネットワーク アクセス (PNA) のフラグ設定に従います。 詳細については、この記事で後述する「 標準デプロイを使用してデプロイされるモデルのネットワーク分離 」セクションを参照してください。 |
サポートされているデプロイ オプションで使用可能なモデル
Azure OpenAI モデルについては、 Azure OpenAI に関するページを参照してください。
標準デプロイまたはマネージド コンピューティングでサポートされているモデルの一覧を表示するには、 Azure AI Foundry のモデル カタログのホーム ページに移動します。 [デプロイ オプション] フィルターを使用して、Standard デプロイまたはマネージド コンピューティングを選択します。
モデルのライフサイクル: 非推奨化と廃止
AI モデルの進化は急速であり、機能が更新された同じモデル ファミリ内の新しいバージョンまたは新しいモデルが利用可能になると、AI Foundry モデル カタログ内では、古いモデルが廃止される場合があります。 新しいモデル バージョンへのスムーズな移行を実現するために、一部のモデルは、自動更新を有効にするオプションをユーザーに提供しています。 さまざまなモデルのモデル ライフサイクル、今後のモデル廃止の日付、推奨される代替モデルとバージョンの詳細については、以下を参照してください。
マネージド コンピューティング
モデルをマネージド コンピューティングとしてデプロイする機能は、Azure Machine Learning のプラットフォーム機能に基づいて構築されており、大規模言語モデル (LLM) 操作のライフ サイクル全体にわたって、モデルカタログ内のモデルの幅広いコレクションをシームレスに統合できます。
マネージド コンピューティングとしてデプロイするためのモデルの可用性
モデルは、Azure Machine Learning レジストリを通じて利用できます。 これらのレジストリにより、Azure Machine Learning 資産のホスティングと配布に機械学習を優先するアプローチが可能になります。 これらの資産には、モデルの重み、モデルを実行するためのコンテナー ランタイム、モデルを評価および微調整するためのパイプライン、ベンチマークとサンプルのデータセットが含まれます。
レジストリは、高度にスケーラブルでエンタープライズ対応のインフラストラクチャの上に構築されており、次を実現します。
組み込みの geo レプリケーションで、低遅延のアクセス モデル成果物をすべての Azure リージョンに提供します。
Azure Policy を使用したモデルへのアクセスの制限や、マネージド仮想ネットワークを使用した安全なデプロイなど、エンタープライズ セキュリティ要件をサポートします。
マネージド コンピューティングを使用した推論用モデルのデプロイ
マネージド コンピューティングへのデプロイに使用できるモデルは、Azure Machine Learning のマネージド コンピューティングにデプロイして、リアルタイム推論に利用できます。 マネージド コンピューティングへのデプロイには、モデルを最適に実行するために必要な特定の製品に対する Azure サブスクリプションの仮想マシン クォータが必要です。 一部のモデルでは、モデルのテスト用に一時的に共有されるクォータにデプロイできます。
モデルのデプロイの詳細については、次を参照してください。
マネージド コンピューティングを使用した生成 AI アプリの構築
Azure Machine Learning の "プロンプト フロー" 機能は、プロトタイプ作成に優れたエクスペリエンスを提供します。 Open Model LLM ツールでは、マネージド コンピューティングでデプロイされたモデルをプロンプト フローで使用できます。 また、Azure Machine Learning 拡張機能を使用して、LangChain などの一般的な LLM ツールでマネージド コンピューティングによって公開される REST API を使用することもできます。
マネージド コンピューティングとしてデプロイされたモデルのコンテンツの安全性
Azure AI Content Safety サービスは、マネージド コンピューティングで使用して、性的コンテンツ、暴力、憎悪、自傷行為などのさまざまなカテゴリの有害なコンテンツをスクリーニングするために使用できます。 このサービスを使用して、ジェイルブレイク リスク検出や保護されたマテリアル テキストの検出などの高度な脅威をスクリーニングすることもできます。
Llama 2 用 Azure AI Content Safety との統合のリファレンスについては、このノートブックを参照してください。 または、プロンプト フローで Content Safety (テキスト) ツールを使用して、スクリーニングのためにモデルからの応答を Azure AI Content Safety に渡すこともできます。 「Azure AI Content Safety の価格」で説明されているように、そのような使用に対しては別途課金されます。
標準の展開の請求
Standard 課金を使用して、特定のモデルをモデル カタログにデプロイできます。 このデプロイ方法 ( 標準デプロイとも呼ばれます) は、モデルをサブスクリプションでホストせずに API として使用する方法を提供します。 モデルは Microsoft が管理するインフラストラクチャでホストされ、モデル プロバイダーのモデルへの API ベースのアクセスが可能になります。 API ベースのアクセスにより、モデルにアクセスするコストが大幅に削減され、プロビジョニング エクスペリエンスがシンプルになります。
標準デプロイとしてデプロイに使用できるモデルは、モデル プロバイダーによって提供されますが、Microsoft が管理する Azure インフラストラクチャでホストされ、API 経由でアクセスされます。 モデル プロバイダーはライセンス条項を定義し、モデルの利用価格を設定します。 Azure Machine Learning service。
- ホスティング インフラストラクチャを管理します。
- 推論 API を使用できるようにします。
- MaaS を使用してデプロイされたモデルによって送信されたプロンプトとコンテンツ出力のデータ プロセッサとして機能します。
MaaS のデータ処理の詳細については、データ プライバシーに関する記事を参照してください。
注
クラウド ソリューション プロバイダー (CSP) サブスクリプションには、標準のデプロイ モデルを購入する機能がありません。
請求書
MaaS を使用してデプロイされたモデルの検索、サブスクリプション、使用エクスペリエンスは、Azure AI Foundry ポータルと Azure Machine Learning スタジオにあります。 ユーザーはモデルの使用に関するライセンス条項に同意します。 消費のための価格情報はデプロイ時に提供されます。
Microsoft 以外のプロバイダーのモデルは、Microsoft コマーシャル マーケットプレースの利用規約に従って、Azure Marketplace を通じて課金されます。
Microsoft のモデルは、ファースト パーティ従量課金サービスとして Azure メーターを介して課金されます。 製品使用条件に記載されているように、ファースト パーティ従量課金サービスは Azure メーターを使用して購入しますが、Azure サービス使用条件の対象ではありません。 これらのモデルの使用には、提供されているライセンス条項が適用されます。
モデルの微調整
特定のモデルでは微調整もサポートされています。 これらのモデルでは、指定したデータを使用してモデルを調整するために、マネージド コンピューティング (プレビュー) または標準デプロイの微調整を利用できます。 詳細については、ファインチューニングの概要に関するページを参照してください。
標準の展開としてデプロイされたモデルを含む RAG
Azure AI Foundry ポータルでは、ベクトル インデックスと取得拡張生成 (RAG) を使用できます。 標準デプロイを使用してデプロイできるモデルを使用して、カスタム データに基づいて埋め込みと推論を生成できます。 これらの埋め込みと推論により、ユース ケースに固有の回答を生成できます。 詳細については、Azure AI Foundry ポータルでベクトル インデックスを構築して使用するに関する記事を参照してください。
オファーとモデルのリージョン別の利用可能性
トークンごとの支払いを利用できるのは、所有している Azure サブスクリプションが、モデル プロバイダーがこのオファーを利用可能にしている国/リージョン内の課金アカウントに属しているユーザーだけです。 関連するリージョンでオファーが利用可能な場合、ユーザーは該当するモデルのデプロイまたはファインチューニングが行える Azure リージョン内にプロジェクトリソースを所有している必要があります。 標準デプロイのモデルのリージョンの可用性を参照してください |詳細については、Azure AI Foundry を参照してください。
標準デプロイを使用してデプロイされたモデルのコンテンツの安全性
標準デプロイを使用してデプロイされた言語モデルの場合、Azure AI では、悪意のあるコンテンツ (ヘイト、自傷行為、性的、暴力を含むコンテンツなど) を検出する Azure AI Content Safety テキスト モデレーション フィルターの既定の構成が実装されます。 コンテンツのフィルター処理の詳細については、「 Azure によって直接販売されるモデルのガードレールとコントロール」を参照してください。
ヒント
コンテンツ フィルタリングは、標準デプロイを介してデプロイされる特定のモデルの種類では使用できません。 これらのモデルの種類には、埋め込みモデルと時系列モデルが含まれます。
コンテンツのフィルター処理は、サービスがコンテンツの生成を求めるプロンプトを処理すると同期的に行われます。 そのような使用については、「Azure AI Content Safety の価格」に従って別途課金される場合があります。 個々のサーバーレス エンドポイントのコンテンツ フィルター処理は、次のいずれかを無効にすることができます。
- 言語モデルを初めてデプロイした時点で
- 後で、デプロイの詳細ページでコンテンツフィルターを切り替えることによって
モデル推論 API 以外の API を使用して、標準デプロイを介してデプロイされたモデルを操作することにしたとします。 このような状況では、Azure AI Content Safety を使用して個別に実装しない限り、コンテンツ フィルタリングは有効になりません。
Azure AI Content Safety の概要については、「クイックスタート: テキスト コンテンツの分析」を参照してください。 標準展開を使用してデプロイされたモデルを操作するときにコンテンツ フィルターを使用しない場合は、有害なコンテンツにユーザーを公開するリスクが高くなります。
標準デプロイを使用してデプロイされたモデルのネットワーク分離
標準デプロイとしてデプロイされたモデルのエンドポイントは、デプロイが存在するプロジェクトを含む Azure AI Foundry ハブのパブリック ネットワーク アクセス フラグ設定に従います。 標準デプロイをセキュリティで保護するには、Azure AI Foundry ハブでパブリック ネットワーク アクセス フラグを無効にします。 ハブのプライベート エンドポイントを使用すると、クライアントからエンドポイントへの受信通信のセキュリティ保護を促進できます。
Azure AI Foundry ハブの公衆ネットワーク アクセス フラグを設定するには:
- Azure ポータルにアクセスします。
- ハブが属しているリソース グループを検索し、このリソース グループに一覧表示されているリソースから Azure AI Foundry ハブを選択します。
- ハブの概要ページの左ペインで、[設定]>[ネットワーク] に移動します。
- [パブリック アクセス] タブで、公衆ネットワーク アクセス フラグの設定を構成できます。
- 変更を保存します。 変更が反映されるまでに最大 5 分かかる場合があります。
制限事項
2024 年 7 月 11 日より前に作成されたプライベート エンドポイントを持つ Azure AI Foundry ハブがある場合、このハブ内のプロジェクトに追加された標準デプロイは、ハブのネットワーク構成に従いません。 代わりに、ハブの新しいプライベート エンドポイントを作成し、新しいデプロイがハブのネットワーク構成に従えるように、プロジェクトに新しい標準デプロイを作成する必要があります。
2024 年 7 月 11 日より前に作成された MaaS デプロイを含む Azure AI Foundry ハブがあり、このハブでプライベート エンドポイントを有効にしている場合、既存の標準デプロイはハブのネットワーク構成に従いません。 ハブ内の標準デプロイがハブのネットワーク構成に従うには、デプロイをもう一度作成する必要があります。
現在、プライベート ハブではパブリック ネットワーク アクセス フラグが無効になっているため、Azure OpenAI On Your Data のサポートはプライベート ハブでの標準デプロイでは使用できません。
ネットワーク構成の変更 (公衆ネットワーク アクセス フラグの有効化または無効化など) が反映されるまでに最大 5 分かかる場合があります。