次の方法で共有


Azure によって直接販売される Foundry Models

この記事では、Azure によって直接販売される Azure AI Foundry Models の選択と、その機能、デプロイの種類、可用性のリージョン (非推奨モデルとレガシ モデルを除く) の一覧を示します。 Azure によって直接販売されるモデルには、すべての Azure OpenAI モデルと、上位プロバイダーから選択された特定のモデルが含まれます。

Azure AI Foundry で使用するプロジェクトの種類に応じて、さまざまなモデルの選択肢が表示されます。 具体的には、Azure AI Foundry リソースに基づいて構築された Foundry プロジェクトを使用すると、Foundry リソースへの標準デプロイに使用できるモデルが表示されます。 または、Azure AI Foundry ハブによってホストされているハブベースのプロジェクトを使用する場合は、マネージド コンピューティング API とサーバーレス API へのデプロイに使用できるモデルが表示されます。 多くのモデルで複数のデプロイ オプションがサポートされているため、これらのモデルの選択肢は重複することがよくあります。

Azure によって直接販売される Foundry Models の属性の詳細については、「Azure AI Foundry モデルの探索」に関するページを参照してください。

Azure によって直接販売される Foundry Models には、次の上位モデル プロバイダーから選択したモデルも含まれます。

  • ブラック フォレスト ラボ: FLUX.1-Kontext-proFLUX-1.1-pro
  • DeepSeek: DeepSeek-V3.1DeepSeek-V3-0324DeepSeek-R1-0528DeepSeek-R1
  • メタ: Llama-4-Maverick-17B-128E-Instruct-FP8Llama-3.3-70B-Instruct
  • Microsoft: MAI-DS-R1
  • ミストラル: mistral-document-ai-2505
  • xAI: grok-code-fast-1grok-3grok-3-minigrok-4-fast-reasoninggrok-4-fast-non-reasoninggrok-4

これらのモデルの詳細については、この記事の上部にある 他のモデル コレクション に切り替えます。

Azure AI Foundry モデルの Azure OpenAI

Azure OpenAI は、さまざまな機能と価格ポイントを備えた多様なモデルセットを利用しています。 モデルの可用性はリージョンとクラウドごとに異なります。 Azure Government モデルの可用性については、「Azure Government の Azure OpenAI」を参照してください。

Models Description
GPT-5 シリーズ 新しい gpt-5、gpt-5-mini、gpt-5-nano、gpt-5-chat
gpt-oss 新しいオープンウェイト推論モデル
codex-mini o4-mini の微調整されたバージョン。
GPT-4.1 シリーズ gpt-4.1、gpt-4.1-mini、gpt-4.1-nano
model-router 特定のプロンプトに応答するために、基になる一連のチャット モデルからインテリジェントに選択するモデル。
computer-use-preview Responses API コンピューター使用ツールで使用するためにトレーニングされた実験モデル。
o シリーズ モデル 高度な問題解決とフォーカスと能力の向上を備えた推論モデル
GPT-4o、GPT-4o mini、GPT-4 Turbo マルチモーダル バージョンの対応 Azure OpenAI モデル。テキストと画像の両方を入力として受け入れることが可能です。
GPT-4 GPT-3.5 を基に改善され、自然言語とコードを理解し、生成できるモデルのセット。
GPT-3.5 GPT-3 を基に改善され、自然言語とコードを理解し、生成できるモデルのセット。
Embeddings テキストを数値ベクトル形式に変換して、テキストの類似性を促進できるモデルのセット。
イメージの生成 自然言語からオリジナルの画像を生成できるモデルのシリーズ。
Video generation テキスト命令から元のビデオ シーンを生成できるモデル。
オーディオ 音声テキスト変換、翻訳、およびテキスト読み上げのための一連のモデル。 GPT-4o オーディオ モデルでは、低待機時間 の音声イン、音声アウト の会話操作、またはオーディオ生成がサポートされます。

GPT-5

リージョンの可用性

モデル リージョン
gpt-5 (2025-08-07) モデル テーブル」を参照してください。
gpt-5-mini (2025-08-07) モデル テーブル」を参照してください。
gpt-5-nano (2025-08-07) モデル テーブル」を参照してください。
gpt-5-chat (2025-08-07) モデル テーブル」を参照してください。
gpt-5-chat (2025-10-03) 米国東部 2 (グローバル標準) とスウェーデン中部 (グローバル標準)
gpt-5-codex (2025-09-11) 米国東部 2 (グローバル標準) とスウェーデン中部 (グローバル標準)
gpt-5-pro (2025-10-06) 米国東部 2 (グローバル標準) とスウェーデン中部 (グローバル標準)

アクセスは、Microsoft の資格条件に基づいて付与されます。 以前に o3 へのアクセスを適用して受け取ったお客様は、承認されたサブスクリプションにモデルのリリース時に自動的にアクセス権が付与されるため、再適用する必要はありません。

モデル ID Description コンテキスト ウィンドウ 最大出力トークン数 トレーニング データ (最大)
gpt-5 (2025-08-07) - 推論
- Chat Completions API。
- 応答 API
- 構造化出力
- テキストと画像処理。
- 関数、ツール、および並列ツール呼び出し。
- 機能の完全な概要
400,000

入力: 272,000
出力: 128,000
128,000 2024 年 9 月 30 日
gpt-5-mini (2025-08-07) - 推論
- Chat Completions API。
- 応答 API
- 構造化出力
- テキストと画像処理。
- 関数、ツール、および並列ツール呼び出し。
- 機能の完全な概要
400,000

入力: 272,000
出力: 128,000
128,000 2024 年 5 月 31 日
gpt-5-nano (2025-08-07) - 推論
- Chat Completions API。
- 応答 API
- 構造化出力
- テキストと画像処理。
- 関数、ツール、および並列ツール呼び出し。
- 機能の完全な概要
400,000

入力: 272,000
出力: 128,000
128,000 2024 年 5 月 31 日
gpt-5-chat (2025-08-07)
プレビュー
- Chat Completions API。
- 応答 API
- 入力: テキスト/画像
- 出力: テキストのみ
128,000 16,384 2024 年 9 月 30 日
gpt-5-chat (2025-10-03)
プレビュー1
- Chat Completions API。
- 応答 API
- 入力: テキスト/画像
- 出力: テキストのみ
128,000 16,384 2024 年 9 月 30 日
gpt-5-codex (2025-09-11) - 応答 API のみ。
- 入力: テキスト/画像
- 出力: テキストのみ
- 構造化出力
- テキストと画像処理。
- 関数、ツール、および並列ツール呼び出し。
- 機能の完全な概要
- Codex CLI および Codex VS Code 拡張機能用に最適化
400,000

入力: 272,000
出力: 128,000
128,000 -
gpt-5-pro (2025-10-06) - 推論
- 応答 API
- 構造化出力
- テキストと画像処理。
- 関数とツール
- 機能の完全な概要
400,000

入力: 272,000
出力: 128,000
128,000 2024 年 9 月 30 日

1gpt-5-chat バージョン 2025-10-03 は、感情的な知性と精神的健康能力に焦点を当てた重要な強化を導入します。 このアップグレードでは、特殊なデータセットと調整された応答戦略が統合され、モデルの次の機能が向上します。

  • 感情コンテキストをより正確に理解して解釈し、微妙で共感的な相互作用を可能にします。
  • メンタルヘルスに関連する会話では、支援的で責任ある対応を行い、感受性と最高の実践に従うことを確保します。

これらの改善により、GPT-5 チャットは、感情的なトーンと幸福に関する考慮事項が重要なシナリオで、コンテキストに対応し、人間中心で信頼性が高くなります。

gpt-oss

リージョンの可用性

モデル リージョン
gpt-oss-120b すべての Azure OpenAI リージョン

能力

モデル ID Description コンテキスト ウィンドウ 最大出力トークン数 トレーニング データ (最大)
gpt-oss-120b (プレビュー) - テキストイン/テキストアウトのみ
- チャット完了API
-ストリーミング
- 関数呼び出し
- 構造化された出力
- 推論
- デプロイ1 およびマネージド コンピューティングを使用して使用できます
131,072 131,072 2024 年 5 月 31 日
gpt-oss-20b (プレビュー) - テキストイン/テキストアウトのみ
- チャット完了API
-ストリーミング
- 関数呼び出し
- 構造化された出力
- 推論
- マネージド コンピューティングFoundry Local を介して使用可能
131,072 131,072 2024 年 5 月 31 日

1 他の Azure OpenAI モデルとは異なり、gpt-oss-120b モデルをデプロイするには Azure AI Foundry プロジェクト 必要です。

コードを使用してデプロイする

az cognitiveservices account deployment create \
  --name "Foundry-project-resource" \
  --resource-group "test-rg" \
  --deployment-name "gpt-oss-120b" \
  --model-name "gpt-oss-120b" \
  --model-version "1" \
  --model-format "OpenAI-OSS" \
  --sku-capacity 10 \
  --sku-name "GlobalStandard"

GPT-4.1 シリーズ

リージョンの可用性

モデル リージョン
gpt-4.1 (2025-04-14) モデル テーブル」を参照してください。
gpt-4.1-nano (2025-04-14) モデル テーブル」を参照してください。
gpt-4.1-mini (2025-04-14) モデル テーブル」を参照してください。

能力

Important

既知の問題は、すべての GPT 4.1 シリーズ モデルに影響します。 300,000 トークンを超える大規模なツールまたは関数呼び出しの定義では、モデルの 100 万個のトークン コンテキスト制限に達しなかった場合でも、エラーが発生します。

エラーは、API 呼び出しと基になるペイロードの特性によって異なる場合があります。

Chat Completions API のエラー メッセージを次に示します:

  • Error code: 400 - {'error': {'message': "This model's maximum context length is 300000 tokens. However, your messages resulted in 350564 tokens (100 in the messages, 350464 in the functions). Please reduce the length of the messages or functions.", 'type': 'invalid_request_error', 'param': 'messages', 'code': 'context_length_exceeded'}}

  • Error code: 400 - {'error': {'message': "Invalid 'tools[0].function.description': string too long. Expected a string with maximum length 1048576, but got a string with length 2778531 instead.", 'type': 'invalid_request_error', 'param': 'tools[0].function.description', 'code': 'string_above_max_length'}}

Responses API のエラー メッセージを次に示します:

  • Error code: 500 - {'error': {'message': 'The server had an error processing your request. Sorry about that! You can retry your request, or contact us through an Azure support request at: https://go.microsoft.com/fwlink/?linkid=2213926 if you keep seeing this error. (Please include the request ID d2008353-291d-428f-adc1-defb5d9fb109 in your email.)', 'type': 'server_error', 'param': None, 'code': None}}
モデル ID Description コンテキスト ウィンドウ 最大出力トークン トレーニング データ (最大)
gpt-4.1 (2025-04-14) - テキストと画像の入力
- テキスト出力
- チャット完了 API
- レスポンスAPI
-ストリーミング
- 関数呼び出し
- 構造化された出力 (チャット補完)
- 1,047,576
- 128,000 (プロビジョニングされたマネージド デプロイ)
- 300,000 (バッチ デプロイ)
32,768 2024 年 5 月 31 日
gpt-4.1-nano (2025-04-14) - テキストと画像の入力
- テキスト出力
- チャット完了 API
- レスポンスAPI
-ストリーミング
- 関数呼び出し
- 構造化された出力 (チャット補完)
- 1,047,576
- 128,000 (プロビジョニングされたマネージド デプロイ)
- 300,000 (バッチ デプロイ)
32,768 2024 年 5 月 31 日
gpt-4.1-mini (2025-04-14) - テキストと画像の入力
- テキスト出力
- チャット完了 API
- レスポンスAPI
-ストリーミング
- 関数呼び出し
- 構造化された出力 (チャット補完)
- 1,047,576
- 128,000 (プロビジョニングされたマネージド デプロイ)
- 300,000 (バッチ デプロイ)
32,768 2024 年 5 月 31 日

model-router

特定のプロンプトに応答するために、基になる一連のチャット モデルからインテリジェントに選択するモデル。

リージョンの可用性

モデル リージョン
model-router (2025-08-07) 米国東部 2 (グローバル標準およびデータ ゾーン標準)、スウェーデン中部 (グローバル標準およびデータ ゾーン標準)
model-router (2025-05-19) 米国東部 2 (グローバル標準およびデータ ゾーン標準)、スウェーデン中部 (グローバル標準およびデータ ゾーン標準)

Data Zone Standard モデル ルーター導入の課金開始は、2025 年 11 月 1 日以降になります。

能力

モデル ID Description コンテキスト ウィンドウ 最大出力トークン トレーニング データ (最大)
model-router (2025-08-07) 特定のプロンプトに応答するために基になるモデルのセットからインテリジェントに選択するモデル。 200,000 32,768 (GPT-4.1 series)
100,000 (o4-mini)
128,000 (gpt-5 reasoning models)
16,384 (gpt-5-chat)
-
model-router (2025-05-19) 特定のプロンプトに応答するために、基になる一連のチャット モデルからインテリジェントに選択するモデル。 200,000 32,768 (GPT-4.1 series)
100,000 (o4-mini)
2024 年 5 月 31 日

より大きなコンテキスト ウィンドウは、基になるモデルの一部と互換性があります。 つまり、コンテキストが大きい API 呼び出しは、プロンプトが正しいモデルにルーティングされた場合にのみ成功します。 そうでない場合、呼び出しは失敗します。

computer-use-preview

Responses API コンピューター使用ツールで使用するためにトレーニングされた実験モデル。

サーとパーティ製ライブラリと共に使用すると、モデルは現在の環境のスクリーンショットからコンテキストを取得しながら、マウスとキーボードの入力を制御できます。

注意事項

運用環境でプレビュー モデルを使用することはおすすめしません。 プレビュー モデルのすべてのデプロイを、将来のプレビュー バージョンまたは最新の安定した一般公開バージョンにアップグレードします。 プレビューに指定されたモデルは、標準の Azure OpenAI モデルのライフサイクルに従っていません。

computer-use-preview にアクセスするには登録が必要です。 アクセスは、Microsoft の資格条件に基づいて付与されます。 他の制限付きアクセス モデルにアクセスできるお客様は、引き続きこのモデルへのアクセスを要求する必要があります。

アクセスを要求するには、computer-use-preview 制限付きアクセス モデル アプリケーションにアクセスしてください アクセスが付与されたら、モデルのデプロイを作成する必要があります。

リージョンの可用性

モデル リージョン
computer-use-preview モデル テーブル」を参照してください。

能力

モデル ID Description コンテキスト ウィンドウ 最大出力トークン トレーニング データ (最大)
computer-use-preview (2025-03-11) Responses API コンピューター使用ツールで使用するための特殊なモデル

-ツール
-ストリーミング
- テキスト (入力と出力)
- 画像 (入力)
8,192 1,024 2023 年 10 月

o シリーズ モデル

Azure OpenAI o シリーズ モデルは、集中力と能力を高め、推論と問題解決のタスクに取り組むために設計されています。 これらのモデルは、ユーザーの要求の処理と理解により多くの時間を費やし、これまでの反復と比較して、科学、コーディング、数学などの分野で非常に強力になっています。

モデル ID Description 最大要求 (トークン) トレーニング データ (最大)
codex-mini (2025-05-16) o4-mini の微調整化バージョン。
- 応答 API
- 構造化出力
- テキストと画像処理。
- 関数とツール。
機能の完全な要約
入力: 200,000
出力: 100,000
2024 年 5 月 31 日
o3-pro (2025-06-10) - 応答 API
- 構造化出力
- テキストと画像処理。
- 関数とツール。
機能の完全な要約
入力: 200,000
出力: 100,000
2024 年 5 月 31 日
o4-mini (2025-04-16) - 新しい推論モデル。強化された推論能力を提供します
- Chat Completions API。
- 応答 API
- 構造化出力
- テキストと画像処理。
- 関数とツール。
機能の完全な要約
入力: 200,000
出力: 100,000
2024 年 5 月 31 日
o3 (2025-04-16) - 新しい推論モデル。強化された推論能力を提供します
- Chat Completions API。
- 応答 API
- 構造化出力
- テキストと画像処理。
- 関数、ツール、および並列ツール呼び出し。
機能の完全な要約
入力: 200,000
出力: 100,000
2024 年 5 月 31 日
o3-mini (2025-01-31) - 推論能力の強化
- 構造化出力
- テキストのみの処理
- 関数とツール。
入力: 200,000
出力: 100,000
2023 年 10 月
o1 (2024-12-17) - 推論能力の強化
- 構造化出力
- テキストと画像処理。
- 関数とツール。
入力: 200,000
出力: 100,000
2023 年 10 月
o1-preview (2024-09-12) 以前のプレビュー バージョン 入力: 128,000
出力: 32,768
2023 年 10 月
o1-mini (2024-09-12) o1シリーズのより速く、よりコスト効率の高いオプションで、速度とリソース消費の削減を必要とするタスクのコーディングに最適です。
- グローバル標準の展開が既定で使用できるようになりました。
- 現在、標準 (リージョン) のデプロイは、o1-preview の制限付きアクセス リリースの一部としてアクセスが付与されたお客様のみが利用できます。
入力: 128,000
出力: 65,536
2023 年 10 月

高度な o シリーズ モデルの詳細については、「推論モデルの概要」を参照してください。

リージョンの可用性

モデル リージョン
codex-mini 米国東部 2 およびスウェーデン中部 (グローバル標準)。
o3-pro 米国東部 2 およびスウェーデン中部 (グローバル標準)。
o4-mini モデル テーブル」を参照してください。
o3 モデル テーブル」を参照してください。
o3-mini モデル テーブル」を参照してください。
o1 モデル テーブル」を参照してください。
o1-preview モデル テーブル」を参照してください。 このモデルは、元の制限付きアクセスの一部としてアクセス権が付与されたお客様のみが使用できます。
o1-mini モデル テーブル」を参照してください。

GPT-4o および GPT-4 Turbo

GPT-4o は、テキストと画像を 1 つのモデルに統合し、複数のデータ型を同時に処理できるようにします。 このマルチモーダル アプローチにより、人間とコンピューターの対話における精度と応答性が向上します。 GPT-4o は、英語以外の言語のタスクやビジョン タスクで優れたパフォーマンスを提供しながら、英語テキストおよびコーディング タスクの GPT-4 Turbo と一致し、AI 機能の新しいベンチマークを設定します。

GPT-4o と GPT-4o mini のモデルにアクセスする方法

GPT-4o と GPT-4o mini は、標準とグローバル標準のモデル デプロイで利用できます。

このモデルを利用できるサポート対象の標準リージョンまたはグローバル標準リージョンに、新しいリソースを作成するか既存のリソースを使用する必要があります。

リソースの作成が済んだ後、GPT-4o モデルをデプロイできます。 プログラムによるデプロイを実行している場合、モデル名は次のようになります:

  • gpt-4o バージョン2024-11-20
  • gpt-4o バージョン2024-08-06
  • gpt-4o バージョン2024-05-13
  • gpt-4o-mini バージョン2024-07-18

GPT-4 Turbo

GPT-4 Turbo は、大規模なマルチモーダル モデル (テキストまたは画像の入力を受け入れ、テキストを生成します) であり、OpenAI の以前のモデルよりも高い精度で困難な問題を解決できます。 GPT-3.5 Turbo や以前の GPT-4 モデルと同様に、GPT-4 Turbo はチャット用に最適化されており、従来の補完タスクでも適切に動作します。

GPT-4

GPT-4 は、GPT-4 Turbo の前身です。 GPT-4 と GPT-4 Turbo のどちらのモデルも、基本モデル名は gpt-4 です。 モデルのバージョンを調べると、GPT-4 モデルと Turbo モデルを区別できます。

GPT-4 モデルと GPT-4 Turbo モデル

これらのモデルは、Chat Completions API でのみ使用できます。

Azure OpenAI がモデル バージョンのアップグレードを処理する方法については、「モデル バージョン」を参照してください。 GPT-4 デプロイのモデル バージョン設定を表示および構成する方法については、「モデルの操作」を参照してください。

モデル ID Description 最大要求 (トークン) トレーニング データ (最大)
gpt-4o (2024-11-20)
GPT-4o (オムニ)
- 構造化出力
- テキストと画像処理。
- JSON モード。
- 並列関数呼び出し。
- 精度と応答性の向上。
- GPT-4 Turbo with Vision と比較した英語のテキストおよびコーディング タスクを含む Parity。
- 英語以外の言語とビジョン タスクでの優れたパフォーマンス。
クリエイティブ ライティング能力の向上。
入力: 128,000
出力: 16,384
2023 年 10 月
gpt-4o (2024-08-06)
GPT-4o (オムニ)
- 構造化出力
- テキストと画像処理。
- JSON モード。
- 並列関数呼び出し。
- 精度と応答性の向上。
- GPT-4 Turbo with Vision と比較した英語のテキストおよびコーディング タスクを含む Parity。
- 英語以外の言語とビジョン タスクでの優れたパフォーマンス。
入力: 128,000
出力: 16,384
2023 年 10 月
gpt-4o-mini (2024-07-18)
GPT-4o mini
- GPT-3.5 Turbo シリーズのモデルを置き換えるのに最適な、高速で安価で高機能のモデル。
- テキストと画像処理。
- JSON モード。
- 並列関数呼び出し。
入力: 128,000
出力: 16,384
2023 年 10 月
gpt-4o (2024-05-13)
GPT-4o (オムニ)
- テキストと画像処理。
- JSON モード。
- 並列関数呼び出し。
- 精度と応答性の向上。
- GPT-4 Turbo with Vision と比較した英語のテキストおよびコーディング タスクを含む Parity。
- 英語以外の言語とビジョン タスクでの優れたパフォーマンス。
入力: 128,000
出力: 4,096
2023 年 10 月
gpt-4 (turbo-2024-04-09)
GPT-4 ターボ ウィズ ビジョン
新しい一般提供モデル。
- 以前のすべての GPT-4 プレビュー モデル (vision-preview1106-Preview0125-Preview) についての代替モデル。
- 機能の可用性は、現在、入力方法とデプロイの種類によって異なります。
入力: 128,000
出力: 4,096
2023 年 12 月

注意事項

運用環境ではプレビュー モデルを使用しないことをお勧めします。 プレビュー モデルのすべてのデプロイを、将来のプレビュー バージョンまたは最新の安定した一般公開バージョンにアップグレードします。 プレビューに指定されたモデルは、標準の Azure OpenAI モデルのライフサイクルに従っていません。

GPT-3.5

GPT-3.5 モデルは、自然言語とコードを理解および生成できます。 GPT-3.5 ファミリで最も優れたコスト効率の高いモデルは GPT-3.5 Turbo であり、チャット用に最適化されており、従来の完了タスクにも適しています。 GPT-3.5 Turbo は、Chat Completions API で使用できます。 GPT-3.5 Turbo Instruct には、Chat Completions API の代わりに Completions API を使用する場合に text-davinci-003 するのと同様の機能があります。 GPT-3.5 および GPT-3 のレガシ モデルよりも GPT-3.5 Turbo および GPT-3.5 Turbo Instruct を使用することをお勧めします。

モデル ID Description 最大要求 (トークン) トレーニング データ (最大)
gpt-35-turbo (0125) new - JSON モード。
- 並列関数呼び出し。
- 再現可能な出力 (プレビュー)。
- 要求された形式で応答するときの精度が高くなります。
- 英語以外の関数呼び出しでテキスト エンコードの問題を引き起こしたバグの修正プログラムが含まれています。
入力: 16,385
出力: 4,096
2021 年 9 月
gpt-35-turbo (1106) 以前の一般提供モデル。
- JSON モード。
- 並列関数呼び出し。
- 再現可能な出力 (プレビュー)。
入力: 16,385
出力: 4,096
2021 年 9 月
gpt-35-turbo-instruct (0914) 補完エンドポイントのみ
- レガシ補完モデルの置き換え
4,097 2021 年 9 月

GPT-3.5 Turbo と Chat Completions API を操作する方法の詳細については、詳細なハウツー記事を参照してください。

埋め込み

text-embedding-3-large は、最新かつ最も高性能の埋め込みモデルです。 埋め込みモデル間でアップグレードすることはできません。 text-embedding-ada-002 を使用して text-embedding-3-large に移行するには、新しい埋め込みを生成する必要があります。

  • text-embedding-3-large
  • text-embedding-3-small
  • text-embedding-ada-002

OpenAI レポートでは、テストでは、大規模および小規模の第 3 世代埋め込みモデルの両方が MIRACL ベンチマークを使用して平均多言語取得パフォーマンスを向上することを示しています。 MTEB ベンチマークを使用して、英語のタスクのパフォーマンスを引き続き維持します。

評価ベンチマーク text-embedding-ada-002 text-embedding-3-small text-embedding-3-large
MIRACL 平均 31.4 44.0 54.9
MTEB 平均 61.0 62.3 64.6

第 3 世代の埋め込みモデルは、新しい dimensions パラメーターを使った埋め込みのサイズ削減をサポートしています。 通常、埋め込みが大きくなると、コンピューティング、メモリ、ストレージの観点からコストが高くなります。 ディメンションの数を調整できる場合は、全体的なコストとパフォーマンスをより詳細に制御できます。 dimensions パラメーターは、OpenAI 1.x Python ライブラリのすべてのバージョンでサポートされているわけではありません。 このパラメーターを利用するには、最新バージョン pip install openai --upgrade にアップグレードすることをお勧めします。

OpenAI の MTEB ベンチマーク テストでは、第 3 世代モデルのディメンションが text-embeddings-ada-002 の 1,536 ディメンションより小さい場合でも、パフォーマンスは依然として若干良いことが判りました。

画像生成モデル

画像生成モデルは、ユーザーが提供するテキスト プロンプトから画像を生成します。 GPT-image-1 シリーズ モデルは、制限付きアクセス プレビュー段階です。 DALL-E 3 は、REST API との併用で一般提供されています。 クライアント SDK を使用する DALL-E 2 と DALL-E 3 は、プレビュー段階です。

gpt-image-1またはgpt-image-1-miniにアクセスするには、登録が必要です。 アクセスは、Microsoft の資格条件に基づいて付与されます。 他の制限付きアクセス モデルにアクセスできるお客様は、引き続きこのモデルへのアクセスを要求する必要があります。

アクセスを要求するには、gpt-image-1 制限付きアクセス モデル アプリケーションにアクセスしてください アクセスが付与されたら、モデルのデプロイを作成する必要があります。

リージョンの可用性

モデル リージョン
dall-e-3 米国東部
オーストラリア東部
スウェーデン中部
gpt-image-1 米国西部 3 (グローバル標準)
米国東部地域 2 (グローバル標準)
アラブ首長国連邦北部 (グローバル標準)
ポーランド中部 (グローバル標準)
gpt-image-1-mini EastUS (グローバル標準)
NorthCentralUS (グローバル標準)

ビデオ生成モデル

Soraは、テキストからの指示で現実的で想像力豊かなビデオシーンを作成できる、OpenAIによるAIモデルです。 Sora はプレビュー段階です。

リージョンの可用性

モデル リージョン
sora 米国東部 2 (グローバル標準)
スウェーデン中部 (グローバル標準)

オーディオ モデル

Azure OpenAI のオーディオ モデルは、 realtimecompletionsaudio API を介して使用できます。

GPT-4o オーディオ モデル

GPT 4o audio モデルは GPT-4o モデル ファミリの一部であり、低遅延の "音声入力、音声出力" の会話のやり取りまたはオーディオ生成のいずれかをサポートします。

注意事項

運用環境でプレビュー モデルを使用することはおすすめしません。 プレビュー モデルのすべてのデプロイを、将来のプレビュー バージョンまたは最新の安定した一般公開バージョンにアップグレードします。 プレビューに指定されたモデルは、標準の Azure OpenAI モデルのライフサイクルに従っていません。

次の表では、最大要求トークン数とトレーニング データに関する詳細を確認できます:

モデル ID Description 最大要求 (トークン) トレーニング データ (最大)
gpt-4o-mini-audio-preview (2024-12-17)
GPT-4o オーディオ
オーディオとテキスト生成向けのオーディオ モデル。 入力: 128,000
出力: 16,384
2023 年 9 月
gpt-4o-audio-preview (2024-12-17)
GPT-4o オーディオ
オーディオとテキスト生成向けのオーディオ モデル。 入力: 128,000
出力: 16,384
2023 年 9 月
gpt-4o-realtime-preview (2025-06-03)
GPT-4o オーディオ
リアルタイム オーディオ処理向けのオーディオ モデル。 入力: 128,000
出力: 4,096
2023 年 10 月
gpt-4o-realtime-preview (2024-12-17)
GPT-4o オーディオ
リアルタイム オーディオ処理向けのオーディオ モデル。 入力: 128,000
出力: 4,096
2023 年 10 月
gpt-4o-mini-realtime-preview (2024-12-17)
GPT-4o オーディオ
リアルタイム オーディオ処理向けのオーディオ モデル。 入力: 128,000
出力: 4,096
2023 年 10 月
gpt-realtime (2025年08月28日) (GA)
gpt-realtime-mini (2025-10-06)
gpt-audio(2025-08-28)
gpt-audio-mini(2025-10-06)
リアルタイム オーディオ処理向けのオーディオ モデル。 入力: 28,672
出力: 4,096
2023 年 10 月

すべてのリージョンでの GPT-4o オーディオ モデルの可用性を比較するには、モデルの表を参照してください。

Audio API

/audio API を介したオーディオ モデルは、音声テキスト変換、翻訳、テキスト読み上げに使用できます。

音声テキスト変換モデル

モデル ID Description 最大要求数 (オーディオ ファイル サイズ)
whisper 汎用音声認識モデル。 25 MB
gpt-4o-transcribe GPT-4o を搭載した音声テキスト変換モデル。 25 MB
gpt-4o-mini-transcribe GPT-4o mini を搭載した音声テキスト変換モデル。 25 MB

音声翻訳モデル

モデル ID Description 最大要求数 (オーディオ ファイル サイズ)
whisper 汎用音声認識モデル。 25 MB

テキスト読み上げモデル (プレビュー)

モデル ID Description
tts 速度に合わせて最適化されたテキスト読み上げモデル。
tts-hd 品質に最適化されたテキスト読み上げモデル。
gpt-4o-mini-tts GPT-4o mini を搭載したテキスト読み上げモデル。

特定のスタイルまたはトーンで話すように音声をガイドできます。

詳細については、この記事で後述する「オーディオ モデルのリージョンの可用性」を参照してください。

モデルの概要テーブルとリージョンの可用性

デプロイの種類別モデル

Azure OpenAI では、お客様はビジネスと使用のパターンに合ったホスティング構造を選択できます。 このサービスで提供されるデプロイの 2 つの主要な種類は、以下のとおりです。

  • 標準: グローバル展開オプションがあり、トラフィックをグローバルにルーティングしてスループットを向上させます。
  • プロビジョニング済み: また、グローバル デプロイ オプションを使用して、プロビジョニングされたスループット ユニットを購入して Azure グローバル インフラストラクチャ全体にデプロイできます。

すべてのデプロイでまったく同じ推論操作を実行できますが、請求、スケール、パフォーマンスは大きく異なります。 Azure OpenAI のデプロイの種類の詳細については、「デプロイの種類に関するガイド」を参照してください。

グローバル標準モデルの提供状況

リージョン gpt-52025-08-07 gpt-5-mini2025-08-07 gpt-5-nano2025-08-07 gpt-5-chat, 2025-08-07 o3-pro2025-06-10 codex-mini2025-05-16 sora2025-05-02 model-router, 2025-08-07 model-router, 2025-05-19 o32025-04-16 o4-mini2025-04-16 gpt-image-12025-04-15 gpt-image-1-mini2025-10-06 gpt-4.12025-04-14 gpt-4.1-nano2025-04-14 gpt-4.1-mini2025-04-14 computer-use-preview2025-03-11 o3-mini2025-01-31 o12024-12-17 o1-mini2024-09-12 gpt-4o2024 年 5 月 13 日 gpt-4o2024-08-06 gpt-4o2024-11-20 gpt-4o-mini2024-07-18 gpt-4turbo-2024-04-09 text-embedding-3-small1 text-embedding-3-large1 text-embedding-ada-0022 gpt-4o-realtime-preview2024-12-17 gpt-4o-realtime-preview2025-06-03 gpt-4o-audio-preview2024-12-17 gpt-4o-mini-realtime-preview2024-12-17 gpt-4o-mini-audio-preview2024-12-17 gpt-4o-transcribe, 2025-03-20 gpt-4o-mini-tts2025-03-20 gpt-4o-mini-transcribe, 2025-03-20 gpt-5-codex2025-09-15 gpt-audio2025-08-28 gpt-realtime, 2025-08-28 o3-deep-research, 2025-06-26
オーストラリアイースト - - - - - - - - - - - - - - - - - - - - - - - -
ブラジルサウス - - - - - - - - - - - - - - - - - - - - - - - - - -
カナダ東部 - - - - - - - - - - - - - - - - - - - - - - - - -
イーストアス - - - - - - - - - - - - - - - - - - - - -
eastus2 -
francecentral - - - - - - - - - - - - - - - - - - - - - - - - - -
ドイツ中西部 - - - - - - - - - - - - - - - - - - - - - - - - - -
italynorth - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
japaneast - - - - - - - - - - - - - - - - - - - - - - - -
コリアセントラル - - - - - - - - - - - - - - - - - - - - - - - -
ノースセントラルUS - - - - - - - - - - - - - - - - - - - - - - - -
ノルウェーイースト - - - - - - - - - - - - - - - - - - - - - - - - -
polandcentral - - - - - - - - - - - - - - - - - - - - - - - - -
southafricanorth - - - - - - - - - - - - - - - - - - - - - - - - - -
サウスセントラル - - - - - - - - - - - - - - - - - - - - - - - - -
南インド - - - - - - - - - - - - - - - - - - - - - - - -
spaincentral - - - - - - - - - - - - - - - - - - - - - - - - - -
swedencentral - - - - - -
スイスノース - - - - - - - - - - - - - - - - - - - - - - - -
uaenorth - - - - - - - - - - - - - - - - - - - - - - - - -
ウクサウス - - - - - - - - - - - - - - - - - - - - - - - -
西ヨーロッパ - - - - - - - - - - - - - - - - - - - - - - - - - -
ウェストユーエス - - - - - - - - - - - - - - - - - - - - - - - -
westus3 - - - - - - - - - - - - - - - - - - - - - - - -

o3-deep-research は現在、Azure AI Foundry Agent Service でのみ使用できます。 詳細については、 ディープ リサーチ ツールのガイダンスを参照してください。

この表には、リージョンごとの提供状況の微調整に関する情報は含まれていません。 この情報については、 微調整のセクション を参照してください。

エンドポイント別の標準デプロイ (リージョン) モデル

チャットの完了

リージョン o1-preview2024-09-12 o1-mini2024-09-12 gpt-4o2024 年 5 月 13 日 gpt-4o2024-11-20 gpt-4o2024-08-06 gpt-4o-mini2024-07-18 gpt-4turbo-2024-04-09 gpt-35-turbo1106 gpt-35-turbo0125
オーストラリアイースト - - - - - -
カナダ東部 - - - - - -
イーストアス -
eastus2 -
francecentral - - - - - -
japaneast - - - - - - -
ノースセントラルUS -
ノルウェーイースト - - - - - - - -
サウスセントラル -
南インド - - - - - -
swedencentral
スイスノース - - - - - - -
ウクサウス - - - - - -
西ヨーロッパ - - - - - - - -
ウェストユーエス
westus3 -

現在、o1-mini は、グローバル標準の展開のすべてのお客様が利用できます。

一部のお客様には、o1-mini 制限付きアクセス リリースの一部として、o1-preview への標準 (リージョン) デプロイ アクセスが付与されています。 現時点では、o1-mini 標準 (リージョン) デプロイへのアクセスは拡張されていません。

GPT-4 および GPT-4 Turbo モデルの可用性

GPT-3.5 モデル

Azure OpenAI がモデル バージョンのアップグレードを処理する方法については、「モデル バージョン」を参照してください。 GPT-3.5 Turbo デプロイのモデル バージョン設定を表示および構成する方法については、「モデルを使用した作業」を参照してください。

モデルの微調整

gpt-35-turbo: このモデルの微調整はリージョンのサブセットに限定され、基本モデルが使用可能なすべてのリージョンで使用できるわけではありません。

Azure OpenAI モデルを Azure AI Foundry プロジェクトで使用するか、プロジェクトの外部で使用するかによって、微調整をサポートするリージョンは異なります。

モデル ID 標準のトレーニング リージョン グローバル トレーニング 最大要求 (トークン) トレーニング データ (最大) Modality
gpt-35-turbo
(1106)
米国東部 2
米国中北部
スウェーデン中部
スイス西部
- 入力: 16,385
出力: 4,096
2021 年 9 月 テキスト間
gpt-35-turbo
(0125)
米国東部 2
米国中北部
スウェーデン中部
スイス西部
- 16,385 2021 年 9 月 テキスト間
gpt-4o-mini
(2024-07-18)
米国中北部
スウェーデン中部
入力: 128,000
出力: 16,384
トレーニング用コンテキストの例の長さ: 65,536
2023 年 10 月 テキスト間
gpt-4o
(2024-08-06)
米国東部 2
米国中北部
スウェーデン中部
入力: 128,000
出力: 16,384
トレーニング用コンテキストの例の長さ: 65,536
2023 年 10 月 テキストと視覚テキスト
gpt-4.1
(2025-04-14)
米国中北部
スウェーデン中部
入力: 128,000
出力: 16,384
トレーニング用コンテキストの例の長さ: 65,536
2024 年 5 月 テキストと視覚テキスト
gpt-4.1-mini
(2025-04-14)
米国中北部
スウェーデン中部
入力: 128,000
出力: 16,384
トレーニング用コンテキストの例の長さ: 65,536
2024 年 5 月 テキスト間
gpt-4.1-nano (2025-04-14) 米国中北部
スウェーデン中部
入力: 128,000
出力: 16,384
トレーニング例のコンテキスト長: 32,768
2024 年 5 月 テキスト間
o4-mini
(2025-04-16)
米国東部 2
スウェーデン中部
- 入力: 128,000
出力: 16,384
トレーニング用コンテキストの例の長さ: 65,536
2024 年 5 月 テキスト間

グローバル トレーニングでは、トークンごとに より手頃な価格 のトレーニングが提供されますが、 データ所在地は提供されません。 現在、次のリージョンの Azure OpenAI リソースで使用できます。

  • オーストラリア東部
  • ブラジル南部
  • カナダ中部
  • カナダ東部
  • 米国東部
  • 米国東部 2
  • フランス中部
  • ドイツ中西部
  • イタリア北部
  • 東日本 (ビジョンサポートなし)
  • 韓国中部
  • 米国中北部
  • ノルウェー東部
  • ポーランド中部 (4.1 ナノサポートなし)
  • 東南アジア
  • 南アフリカ北部
  • 米国中南部
  • インド南部
  • スペイン中部
  • スウェーデン中部
  • スイス西部
  • スイス北部
  • 英国南部
  • 西ヨーロッパ
  • 米国西部
  • 米国西部 3

アシスタント (プレビュー)

アシスタントについては、サポートされているモデルとサポートされているリージョンの組み合わせが必要です。 特定のツールと機能には最新モデルが必要です。 次のモデルは、Assistants API、SDK、Azure AI Foundry で使用できます。 次の表は、標準のデプロイ用です。 プロビジョニングされたスループット ユニットの可用性の詳細については、「プロビジョニングされたスループット」を参照してください。 一覧で示されているモデルとリージョンは、Assistants v1 と v2 の両方で使用できます。 グローバル標準モデルは、次のリージョンでサポートされている場合に使用できます。

リージョン gpt-4o,2024-05-13 gpt-4o, 2024-08-06 gpt-4o-mini、2024-07-18 gpt-4, 0613 gpt-4、1106-Preview gpt-4、0125-Preview gpt-4、turbo-2024-04-09 gpt-4-32k, 0613 gpt-35-turbo、0613 gpt-35-turbo,1106 gpt-35-turbo,0125 gpt-35-turbo-16k, 0613
オーストラリアイースト - - - - -
イーストアス - - - -
eastus2 - - - -
francecentral - - - - - -
japaneast - - - - - - - - -
ノルウェーイースト - - - - - - - - - - -
南インド - - - - - - - - -
swedencentral - -
ウクサウス - - - - - -
ウェストユーエス - - - - -
westus3 - - - - - -

モデルの廃止

モデルの廃止に関する最新情報については、モデル廃止ガイドに関する記事をご覧ください。

Azure によって直接販売される Foundry モデルには、すべての Azure OpenAI モデルも含まれています。 これらのモデルの詳細については、この記事の上部にある Azure OpenAI モデル コレクションに切り替えます。

Azure によって直接販売される Black Forest Labs モデル

イメージ生成モデルの Black Forest Labs (BFL) コレクションには、コンテキスト内の生成と編集用の FLUX.1 Kontext [pro] と、テキストから画像への生成用の FLUX1.1 [pro] が含まれています。

これらのモデルは、BFL サービス プロバイダー API、 およびイメージ/世代およびイメージ/編集エンドポイントを使用して実行できます。

モデル 型と API エンドポイント 能力 デプロイの種類 (リージョンの可用性) プロジェクトの種類
FLUX.1-コンテクスト-プロ イメージの生成
- Image API: https://<resource-name>/openai/deployments/{deployment-id}/images/generations
and
https://<resource-name>/openai/deployments/{deployment-id}/images/edits

- BFL サービス プロバイダー API: <resource-name>/providers/blackforestlabs/v1/flux-kontext-pro?api-version=preview
- 入力: テキストと画像 (5,000 トークンと 1 つの画像)
- アウトプット: 1 つの画像
- ツールの呼び出し: いいえ
- 応答形式: 画像 (PNG および JPG)
- 主な機能: 文字の一貫性、高度な編集
- 追加パラメーター:(プロバイダー固有の API のみ)seedaspect ratioinput_imageprompt_unsamplingsafety_toleranceoutput_formatwebhook_urlwebhook_secret
- グローバル標準 (すべてのリージョン) Foundry、ハブベース
FLUX-1.1-pro イメージの生成
- Image API: https://<resource-name>/openai/deployments/{deployment-id}/images/generations

- BFL サービス プロバイダー API: <resource-name>/providers/blackforestlabs/v1/flux-pro-1.1?api-version=preview
- 入力: テキスト (5,000 トークンと 1 つの画像)
- アウトプット: 1 つの画像
- ツールの呼び出し: いいえ
- 応答形式: 画像 (PNG と JPG)
- 主な機能: 迅速な推論速度、強力な迅速な準拠、競争力のある価格、スケーラブルな世代
- 追加パラメーター:(プロバイダー固有の API のみ)widthheightprompt_unsamplingseedsafety_toleranceoutput_formatwebhook_urlwebhook_secret
- グローバル標準 (すべてのリージョン) Foundry、ハブベース

Azure AI Foundry ポータルで、このモデル コレクションを参照してください。

Azure によって直接販売される DeepSeek モデル

DeepSeek のモデル ファミリには DeepSeek-R1 が含まれています。DeepSeek-R1 は、言語、科学的推論、コーディング タスクなどの段階的なトレーニング プロセスを使用して、推論タスクに優れています。

モデル タイプ 能力 デプロイの種類 (リージョンの可用性) プロジェクトの種類
DeepSeek-V3.1 chat-completion
(推論コンテンツあり)
- 入力: テキスト (131,072 トークン)
- 出力: (131,072 トークン)
- Languages:en そして zh
- ツールの呼び出し: はい
- 応答形式: テキスト、JSON
- グローバル標準 (すべてのリージョン) Foundry、ハブベース
DeepSeek-R1-0528 chat-completion
(推論コンテンツあり)
- 入力: テキスト (163,840 トークン)
- 出力: (163,840 トークン)
- Languages:en そして zh
- ツールの呼び出し: いいえ
- 応答形式: テキスト。
- グローバル標準 (すべてのリージョン)
- グローバル プロビジョニング済み (すべてのリージョン)
Foundry、ハブベース
DeepSeek-V3-0324 chat-completion - 入力: テキスト (131,072 トークン)
- 出力: (131,072 トークン)
- Languages:en そして zh
- ツールの呼び出し: はい
- 応答形式: テキスト、JSON
- グローバル標準 (すべてのリージョン)
- グローバル プロビジョニング済み (すべてのリージョン)
Foundry、ハブベース
DeepSeek-R1 chat-completion
(推論コンテンツあり)
- 入力: テキスト (163,840 トークン)
- 出力: (163,840 トークン)
- Languages:en そして zh
- ツールの呼び出し: いいえ
- 応答形式: テキスト。
- グローバル標準 (すべてのリージョン)
- グローバル プロビジョニング済み (すべてのリージョン)
Foundry、ハブベース

Azure AI Foundry ポータルで、このモデル コレクションを参照してください。

Azure によって直接販売されるメタ モデル

Meta Llama のモデルとツールは、事前トレーニングおよび微調整された生成 AI テキストと画像推論モデルのコレクションです。 メタ モデルのスケール範囲は次のとおりです。

  • 1B や 3B Base およびデバイス上およびエッジ推論用の Instruct モデルなどの小規模言語モデル (SLM)
  • 7B、8B、70B の Base および Instruct モデルなどの中規模の大規模言語モデル (LLM)
  • Meta Llama 3.1-405B などの高パフォーマンス モデルは、合成データ生成や蒸留のユースケースに利用されます。
モデル タイプ 能力 デプロイの種類 (リージョンの可用性) プロジェクトの種類
Llama-4-Maverick-17B-128E-Instruct-FP8 chat-completion - 入力: テキストと画像 (1M トークン)
- 出力: テキスト (1M トークン)
- 言語:arenfrdehiiditptestlth、および vi
- ツールの呼び出し: いいえ
- 応答形式: テキスト
- グローバル標準 (すべてのリージョン) Foundry、ハブベース
Llama-3.3-70B-Instruct chat-completion - 入力: テキスト (128,000 トークン)
- 出力: テキスト (8,192 トークン)
- 言語:endefritpthies、および th
- ツールの呼び出し: いいえ
- 応答形式: テキスト
- グローバル標準 (すべてのリージョン) Foundry、ハブベース

Azure AI Foundry ポータルで、このモデル コレクションを参照してください。 パートナーやコミュニティから入手できるいくつかのメタ モデルを見つけることもできます。

Azure によって直接販売される Microsoft モデル

Microsoft モデルには、MAI モデル、Phi モデル、医療 AI モデルなど、さまざまなモデル グループが含まれています。 使用可能なすべての Microsoft モデルを表示するには、 Azure AI Foundry ポータルで Microsoft モデル コレクションを表示します

モデル タイプ 能力 デプロイの種類 (リージョンの可用性) プロジェクトの種類
MAI-DS-R1 chat-completion
(推論コンテンツあり)
- 入力: テキスト (163,840 トークン)
- 出力: (163,840 トークン)
- Languages:en そして zh
- ツールの呼び出し: いいえ
- 応答形式: テキスト。
- グローバル標準 (すべてのリージョン) Foundry、ハブベース

Azure AI Foundry ポータルの Microsoft モデル コレクションを参照してください。 パートナーやコミュニティから入手できるいくつかの Microsoft モデルを見つけることもできます。

Azure によって直接販売される Mistral モデル

モデル タイプ 能力 デプロイの種類 (リージョンの可用性) プロジェクトの種類
mistral-document-ai-2505 画像からテキストへ - 入力: 画像または PDF ページ (30 ページ、最大 30 MB PDF ファイル)
- 出力: テキスト
- 言語: en
- ツールの呼び出し: いいえ
- 応答形式: Text、JSON、Markdown
- グローバル標準 (すべてのリージョン)
- データ ゾーン標準 (米国および EU)
Foundry

Azure AI Foundry ポータルの Mistral モデル コレクションを参照してください。 また、パートナーやコミュニティから入手できるいくつかの Mistral モデルを見つけることもできます。

Azure によって直接販売される xAI モデル

Azure AI Foundry Models の xAI の Grok モデルには、次のようなさまざまな機能と価格ポイントを備えたさまざまなエンタープライズ ドメインで優れたモデル セットが用意されています。

  • Grok 3 は、コロッサス データセンターによって事前トレーニングされた推論以外のモデルであり、データ抽出、コーディング、テキスト要約などのビジネス ユース ケース向けに、優れた命令に従った機能を備えています。 131,072 トークン コンテキスト ウィンドウがサポートされており、一貫性と深さを維持しながら広範な入力を処理でき、ドメインと言語間の接続の描画に熟達しています。

  • Grok 3 Mini は軽量な推論モデルで、エージェント処理、コーディング、数学、ディープサイエンスの課題に対応できるよう、テスト時の計算を活用して訓練されています。 また、コードベースとエンタープライズ ドキュメントを理解するための 131,072 トークン コンテキスト ウィンドウもサポートしており、ツールを使用して新しい環境での複雑な論理的な問題を解決し、ユーザーの検査のための生の推論トレースを、調整可能な思考予算で提供します。

  • Grok Code Fast 1 は、エージェント コーディング アプリケーションで使用するために設計された、高速かつ効率的な推論モデルです。 これは、コーディングに重点を置いたデータ混合物に事前トレーニングされた後、さまざまなコーディング タスクとツールの使用のデモンストレーションと、xAI の安全ポリシーに基づく正しい拒否動作のデモンストレーションに関する後トレーニングを行いました。 grok-code-fast-1 モデルへのアクセスには登録が必要です

  • Grok 4 Fast は、ほぼ Grok 4 の推論機能を大幅に低い待機時間とコストで提供し、超高速アプリケーションでは推論を完全にバイパスできる、効率性に最適化された言語モデルです。 これは、組み込みの拒否動作、固定安全適用システムプロンプト、および誤用を防ぐための入力フィルタを備えた、安全で効果的なツールの使用のためにトレーニングされています。

  • Grok 4は、高度な推論とツール使用機能を備えたxAIの最新の推論モデルであり、困難な学術および業界のベンチマーク全体で新しい最先端のパフォーマンスを達成することができます。 grok-4 モデルへのアクセスには登録が必要です

モデル タイプ 能力 デプロイの種類 (リージョンの可用性) プロジェクトの種類
grok-4 chat-completion - 入力: テキスト、画像 (256,000 トークン)
- 出力: テキスト (8,192 トークン)
- 言語:en
- ツールの呼び出し: はい
- 応答形式: テキスト
- グローバル標準 (すべてのリージョン) Foundry、ハブベース
grok-4-fast-reasoning chat-completion - 入力: テキスト、画像 (2,000,000 トークン)
- 出力: テキスト (2,000,000 トークン)
- 言語:en
- ツールの呼び出し: はい
- 応答形式: テキスト
- グローバル標準 (すべてのリージョン)
- データ ゾーン標準 (米国)
Foundry、ハブベース
grok-4-fast-non-reasoning chat-completion - 入力: テキスト、画像 (2,000,000 トークン)
- 出力: テキスト (2,000,000 トークン)
- 言語:en
- ツールの呼び出し: はい
- 応答形式: テキスト
- グローバル標準 (すべてのリージョン)
- データ ゾーン標準 (米国)
Foundry、ハブベース
grok-code-fast-1 chat-completion - 入力: テキスト (256,000 トークン)
- 出力: テキスト (8,192 トークン)
- 言語:en
- ツールの呼び出し: はい
- 応答形式: テキスト
- グローバル標準 (すべてのリージョン) Foundry、ハブベース
grok-3 chat-completion - 入力: テキスト (131,072 トークン)
- 出力: テキスト (131,072 トークン)
- 言語:en
- ツールの呼び出し: はい
- 応答形式: テキスト
- グローバル標準 (すべてのリージョン)
- データ ゾーン標準 (米国)
Foundry、ハブベース
grok-3-mini chat-completion - 入力: テキスト (131,072 トークン)
- 出力: テキスト (131,072 トークン)
- 言語:en
- ツールの呼び出し: はい
- 応答形式: テキスト
- グローバル標準 (すべてのリージョン)
- データ ゾーン標準 (米国)
Foundry、ハブベース

Azure AI Foundry ポータルの xAI モデル コレクションを参照してください。

デプロイの種類別にリージョンの可用性をモデル化する

Foundry Models では、ビジネスパターンと使用パターンに合ったホスティング構造を選択できます。 このサービスで提供されるデプロイの 2 つの主要な種類は、以下のとおりです。

  • 標準: グローバル展開オプションがあり、トラフィックをグローバルにルーティングしてスループットを向上させます。
  • プロビジョニング済み: グローバル デプロイ オプションもあり、プロビジョニングされたスループット ユニットを Azure グローバル インフラストラクチャ全体で購入してデプロイできます。

すべてのデプロイで同じ推論操作が実行されますが、課金、スケール、パフォーマンスは異なります。 デプロイの種類の詳細については、「 Azure AI Foundry モデルのデプロイの種類」を参照してください。

グローバル標準モデルの提供状況

リージョン DeepSeek-R1-0528 DeepSeek-R1 DeepSeek-V3-0324 DeepSeek-V3.1 FLUX.1-コンテクスト-プロ FLUX-1.1-pro grok-4 grok-4-fast-reasoning grok-4-fast-non-reasoning grok-code-fast-1 grok-3 grok-3-mini Llama-4-Maverick-17B-128E-Instruct-FP8 Llama-3.3-70B-Instruct MAI-DS-R1 mistral-document-ai-2505
オーストラリアイースト
ブラジルサウス
カナダ東部
イーストアス
eastus2
francecentral
ドイツ中西部
italynorth
japaneast
コリアセントラル
ノースセントラルUS
ノルウェーイースト
polandcentral
southafricanorth
サウスセントラル
南インド
spaincentral
swedencentral
スイスノース
switzerlandwest
uaenorth
ウクサウス
西ヨーロッパ
ウェストユーエス
westus3

オープン モデルとカスタム モデル

モデル カタログでは、より広範なプロバイダーからより多くのモデルを選択できます。 これらのモデルでは、モデルが API として提供されている Azure AI Foundry リソースでの標準デプロイのオプションを使用することはできません。 代わりに、これらのモデルをデプロイするには、インフラストラクチャでモデルをホストし、AI ハブを作成し、基になるコンピューティング クォータを提供してモデルをホストすることが必要になる場合があります。

さらに、これらのモデルは、オープン アクセスまたは IP で保護できます。 どちらの場合も、Azure AI Foundry のマネージド コンピューティング オファリングにデプロイする必要があります。 開始するには、「 方法: マネージド コンピューティングにデプロイする」を参照してください。