次の方法で共有


標準デプロイで使用できる Azure AI Foundry モデル

Azure AI モデル カタログには、さまざまなプロバイダーから Azure AI Foundry モデルが多数用意されています。 モデル カタログからモデルをデプロイするためのさまざまなオプションがあります。 この記事では、標準デプロイを使用してデプロイできる Azure AI Foundry モデルの一覧を示します。 これらのモデルの一部では、マネージド コンピューティングを使用してデプロイ用にインフラストラクチャでホストすることもできます。

重要

プレビュー段階のモデルには、モデル カタログ内のモデル カードで "プレビュー" のマークが付けられます。

モデルで推論を実行するには、 Nixtla の TimeGEN-1Cohere rerank などの一部のモデルで、モデル プロバイダーのカスタム API を使用する必要があります。 Foundry Models API を使用した推論をサポートするユーザーもいます。 個々のモデルの詳細については、 Azure AI Foundry ポータルのモデル カタログでモデル カードを確認します。

Azure AI Foundry モデル カタログ セクションと使用可能なモデルを示すアニメーション。

AI21 Labs

Jamba ファミリ モデルは、AI21 のハイブリッド Mamba-Transformer アーキテクチャを使用した AI21 の運用環境グレードの Mamba ベース大規模言語モデル (LLM) です。 これは、AI21 のハイブリッド構造状態空間モデル (SSM) トランスフォーマー Jamba モデルのインストラクションチューニングされたバージョンです。 Jamba ファミリ モデルは、品質とパフォーマンスに関して商業利用できる信頼性を持つように構築されています。

モデル タイプ 資格
AI21-Jamba-1.5-Mini チャットの完了 - 入力: テキスト (262,144 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON、構造化済み出力
AI21-Jamba-1.5-Large チャットの完了 - 入力: テキスト (262,144 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON、構造化済み出力

Azure AI Foundry ポータルでこちらのモデル コレクションを参照してください。

Azure OpenAI

Foundry Models の Azure OpenAI には、さまざまな機能と価格ポイントを備えたさまざまなモデル セットが用意されています。 モデルには以下のものがあります。

  • 推論と問題解決のタスクに、集中力と能力を高めて取り組むように設計された最先端のモデル
  • 自然言語とコードを理解して生成できるモデル
  • 音声をテキストに変換し翻訳することができるモデル
モデル タイプ 資格
o3-mini チャットの完了 - 入力: テキストと画像 (200,000 トークン)
- 出力: テキスト (100,000 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON、構造化済み出力
o1 チャットの完了 (画像付き) - 入力: テキストと画像 (200,000 トークン)
- 出力: テキスト (100,000 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON、構造化済み出力
o1-preview チャットの完了 - 入力: テキスト (128,000 トークン)
- 出力: テキスト (32,768 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON、構造化済み出力
o1-mini チャットの完了 - 入力: テキスト (128,000 トークン)
- 出力: テキスト (65,536 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
gpt-4o-realtime-preview リアルタイム - 入力: コントロール、テキスト、オーディオ (131,072 トークン)
- 出力: テキストとオーディオ (16,384 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON
gpt-4o チャットの完了 (画像とオーディオ コンテンツを含む) - 入力: テキスト、画像、オーディオ (131,072 トークン)
- 出力: テキスト (16,384 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON、構造化済み出力
gpt-4o-mini チャットの完了 (画像とオーディオ コンテンツを含む) - 入力: テキスト、画像、オーディオ (131,072 トークン)
- 出力: テキスト (16,384 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON、構造化済み出力
text-embedding-3-large 埋め込み - 入力: テキスト (8,191 トークン)
- アウトプット: ベクター (3,072次元)
text-embedding-3-small 埋め込み - 入力: テキスト (8,191 トークン)
- アウトプット: ベクター (1,536 dim)。

Azure AI Foundry ポータルでこちらのモデル コレクションを参照してください。

コヒア

Cohere のモデル ファミリには、rerank、チャットの完了、埋め込みモデルなど、さまざまなユース ケース向けに最適化されたさまざまなモデルが含まれています。

Cohere コマンドと埋め込み

次の表に、Foundry Models API を使用して推論できる Cohere モデルの一覧を示します。

モデル タイプ 資格
Cohere-command-A チャットの完了 - 入力: テキスト (256,000 トークン)
- 出力: テキスト (8,000 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト
Cohere-command-r-plus-08-2024 チャットの完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON
Cohere-command-r-08-2024 チャットの完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON
コヒア・コマンド・アール・プラス
(非推奨)
チャットの完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON
Cohere-command-r
(非推奨)
チャットの完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON
Cohere-embed-4 埋め込み
image-embeddings
- 入力: 画像、テキスト
- 出力: 画像、テキスト (128,000 トークン)
- ツールの呼び出し: 可能
- 応答形式: 画像、テキスト
Cohere-embed-v3-english 埋め込み
image-embeddings
- 入力: テキスト (512 トークン)
- アウトプット: ベクター (1,024次元)。
Cohere-embed-v3-多言語 埋め込み
image-embeddings
- 入力: テキスト (512 トークン)
- アウトプット: ベクター (1,024次元)。

推論の例: Cohere コマンドと埋め込み

Cohere モデルの使用方法のその他の例については、次の例を参照してください。

説明 言語 サンプル
Web リクエスト Bash (バッシュ) Command-RCommand-R+
cohere-embed.ipynb
C# 用 Azure AI 推論パッケージ C# リンク
JavaScript 用 Azure AI 推論パッケージ JavaScript リンク
Python 用 Azure AI 推論パッケージ Python(プログラミング言語) リンク
OpenAI SDK (試験段階) Python(プログラミング言語) リンク
LangChain Python(プログラミング言語) リンク
Cohere SDK Python(プログラミング言語) コマンド
埋め込み
LiteLLM SDK Python(プログラミング言語) リンク

取得拡張生成 (RAG) とツールの使用サンプル: Cohere コマンドと埋め込み

説明 パッケージ サンプル
Cohere 埋め込みを使用してローカルの Facebook AI 類似性検索 (FAISS) ベクター インデックスを作成する - Langchain langchainlangchain_cohere cohere_faiss_langchain_embed.ipynb
Cohere コマンド R/R+ を使用して、ローカルの FAISS ベクター インデックスのデータから質問に回答する - Langchain langchainlangchain_cohere command_faiss_langchain.ipynb
Cohere コマンド R/R+ を使用して、AI 検索ベクター インデックスのデータから質問に回答する - Langchain langchainlangchain_cohere cohere-aisearch-langchain-rag.ipynb
Cohere コマンド R/R+ を使用して、AI 検索ベクター インデックスのデータから質問に回答する - Cohere SDK cohereazure_search_documents cohere-aisearch-rag.ipynb
LangChain を使用したコマンド R+ ツールおよび関数呼び出し coherelangchainlangchain_cohere command_tools-langchain.ipynb

Cohere Rerank

次の表に、Cohere の再ランク付けモデルの一覧を示します。 これらの再ランク付けモデルで推論を実行するには、表に記載されている Cohere のカスタム rerank API を使用する必要があります。

モデル タイプ 推論 API
Cohere-rerank-v3.5 rerank
テキスト分類
Cohere の v2/rerank API
Cohere-rerank-v3-english
(非推奨)
rerank
テキスト分類
Cohere の v2/rerank API
Cohere の v1/rerank API
Cohere-rerank-v3-多言語
(非推奨)
rerank
テキスト分類
Cohere の v2/rerank API
Cohere の v1/rerank API

Cohere Rerank モデルの価格

クエリは、ユーザーのクエリと混同しないように、Cohere Rerank モデルの推論の入力として使用されるトークンに関連するコストを指す価格メーターです。 Cohere では、1 つの検索単位がクエリとしてカウントされ、最大 100 個のドキュメントがランク付けされます。 検索クエリの長さを含めると、500 個を超えるトークン (Cohere-rerank-v3.5 の場合) または 4096 個を超えるトークン (Cohere-rerank-v3-English および Cohere-rerank-v3-multilingual の場合) が複数のチャンクに分割され、各チャンクは 1 つのドキュメントとしてカウントされます。

Azure AI Foundry ポータルの Cohere モデル コレクションを参照してください。

Core42

Core42 には、アラビア語の最新機能を備えたアラビア語と英語用の自動回帰のバイリンガル LLM が含まれています。

モデル タイプ 資格
jais-30b-chat チャットの完了 - 入力: テキスト (8,192 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON

Azure AI Foundry ポータルでこちらのモデル コレクションを参照してください。

推論の例: Core42

Jais モデルの使用方法の他の例については、次の例を参照してください。

説明 言語 サンプル
C# 用 Azure AI 推論パッケージ C# リンク
JavaScript 用 Azure AI 推論パッケージ JavaScript リンク
Python 用 Azure AI 推論パッケージ Python(プログラミング言語) リンク

DeepSeek

DeepSeek のモデル ファミリには DeepSeek-R1 が含まれています。DeepSeek-R1 は、言語、科学的推論、コーディング タスク、DeepSeek-V3-0324、エキスパート混合 (MoE) 言語モデルなど、段階的なトレーニング プロセスを使用した推論タスクに優れています。

モデル タイプ 資格
DeepSeek-R1-0528
推論コンテンツを使用したチャット完了 - 入力: テキスト (163,840 トークン)
- 出力: テキスト (163,840 トークン)
- Languages:en そして zh
- ツールの呼び出し: 不可
- 応答形式: テキスト
DeekSeek-V3-0324 チャットの完了 - 入力: テキスト (131,072 トークン)
- 出力: (131,072 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト、JSON
DeepSeek-V3
(レガシー)
チャットの完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (131,072 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト、JSON
DeepSeek-R1 推論コンテンツを使用したチャット完了 - 入力: テキスト (163,840 トークン)
- 出力: テキスト (163,840 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト。

DeepSeek-R1 のチュートリアルについては、「 チュートリアル: Foundry Models で推論モデル DeepSeek-R1 使用する」を参照してください。

Azure AI Foundry ポータルでこちらのモデル コレクションを参照してください。

推論の例: DeepSeek

DeepSeek モデルの使用方法の他の例については、次の例を参照してください。

説明 言語 サンプル
Python 用 Azure AI 推論パッケージ Python(プログラミング言語) リンク
JavaScript 用 Azure AI 推論パッケージ JavaScript リンク
C# 用 Azure AI 推論パッケージ C# リンク
Java 用 Azure AI 推論パッケージ ジャワ リンク

メタ

Meta Llama のモデルとツールは、事前トレーニングおよび微調整された生成 AI テキストと画像推論モデルのコレクションです。 メタ モデルの範囲は、次を含むようにスケーリングされています。

  • 1B や 3B Base およびデバイス上およびエッジ推論用の Instruct モデルなどの小規模言語モデル (SLM)
  • 7B、8B、70B の Base および Instruct モデルなどの中規模の大規模言語モデル (LLM)
  • 合成データ生成および蒸留ユース ケース向けの Meta Llama 3.1-405B Instruct などの高性能モデル。
  • 高パフォーマンスのネイティブマルチモーダル モデルである Llama 4 Scout と Llama 4 Maverick は、エキスパートの混合アーキテクチャを活用して、テキストと画像の理解において業界をリードするパフォーマンスを提供します。
モデル タイプ 資格
Llama-4-Scout-17B-16E-Instruct チャットの完了 - 入力: テキストと画像 (128,000 トークン)
- 出力: テキスト (8,192 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Llama 4-Maverick-17B-128E-Instruct-FP8 チャットの完了 - 入力: テキストと画像 (128,000 トークン)
- 出力: テキスト (8,192 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Llama-3.3-70B-Instruct チャットの完了 - 入力: テキスト (128,000 トークン)
- 出力: テキスト (8,192 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Llama-3.2-90B-Vision-Instruct チャットの完了 (画像付き) - 入力: テキストと画像 (128,000 トークン)
- 出力: テキスト (8,192 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Llama-3.2-11B-Vision-Instruct チャットの完了 (画像付き) - 入力: テキストと画像 (128,000 トークン)
- 出力: テキスト (8,192 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Meta-Llama-3.1-8B-Instruct チャットの完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (8,192 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Meta-Llama-3.1-405B-Instruct チャットの完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (8,192 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Meta-Llama-3.1-70B-Instruct (非推奨) チャットの完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (8,192 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Meta-Llama-3-8B-Instruct (非推奨) チャットの完了 - 入力: テキスト (8,192 トークン)
- 出力: テキスト (8,192 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Meta-Llama-3-70B-Instruct (非推奨) チャットの完了 - 入力: テキスト (8,192 トークン)
- 出力: テキスト (8,192 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト

Azure AI Foundry ポータルでこちらのモデル コレクションを参照してください。

推論の例: Meta Llama

Meta Llama モデルの使用方法のその他の例については、次の例を参照してください。

説明 言語 サンプル
CURL を使用したリクエスト Bash (バッシュ) リンク
C# 用 Azure AI 推論パッケージ C# リンク
JavaScript 用 Azure AI 推論パッケージ JavaScript リンク
Python 用 Azure AI 推論パッケージ Python(プログラミング言語) リンク
Python Web 要求 Python(プログラミング言語) リンク
OpenAI SDK (試験段階) Python(プログラミング言語) リンク
LangChain Python(プログラミング言語) リンク
LiteLLM Python(プログラミング言語) リンク

Microsoft

Microsoft モデルには、MAI モデル、Phi モデル、医療 AI モデルなど、さまざまなモデル グループが含まれています。 使用可能なすべての Microsoft モデルを表示するには、 Azure AI Foundry ポータルで Microsoft モデル コレクションを表示します

モデル タイプ 資格
MAI-DS-R1 推論コンテンツを使用したチャット完了 - 入力: テキスト (163,840 トークン)
- 出力: テキスト (163,840 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト。
Phi-4-reasoning 推論コンテンツを使用したチャット完了 - 入力: テキスト (32768 トークン)
- 出力: テキスト (32768 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-4-ミニ推理 推論コンテンツを使用したチャット完了 - 入力: テキスト (128,000 トークン)
- 出力: テキスト (128,000 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-4-multimodal-instruct チャットの完了 (画像とオーディオ コンテンツを含む) - 入力: テキスト、画像、オーディオ (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-4-mini-instruct チャットの完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-4 チャットの完了 - 入力: テキスト (16,384 トークン)
- 出力: テキスト (16,384 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-3.5-mini-instruct チャットの完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-3.5-MoE-instruct チャットの完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-3.5-vision-instruct チャットの完了 (画像付き) - 入力: テキストと画像 (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-3-mini-128k-instruct チャットの完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-3-mini-4k-instruct チャットの完了 - 入力: テキスト (4,096 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-3-small-128k-instruct チャットの完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-3-small-8k-instruct チャットの完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-3-medium-128k-instruct チャットの完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-3-medium-4k-instruct チャットの完了 - 入力: テキスト (4,096 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト

推論の例: Microsoft モデル

Microsoft モデルの使用方法のその他の例については、次の例を参照してください。

説明 言語 サンプル
C# 用 Azure AI 推論パッケージ C# リンク
JavaScript 用 Azure AI 推論パッケージ JavaScript リンク
Python 用 Azure AI 推論パッケージ Python(プログラミング言語) リンク
LangChain Python(プログラミング言語) リンク
Llama-Index Python(プログラミング言語) リンク

Azure AI Foundry ポータルの Microsoft モデル コレクションを参照してください。

Mistral AI(ミストラルAI)

Mistral AI では、次の 2 つのカテゴリのモデルを提供しています。

  • Premium モデル: これらには、Mistral Large、Mistral Small、Mistral-OCR-2503、Mistral Medium 3 (25.05)、および Ministral 3B モデルが含まれており、従量課金制トークンベースの課金でサーバーレス API として利用できます。
  • オープンモデル:ミストラル-small-2503、 Codestral、および Mistral Nemo (従量課金制トークン ベースの課金でサーバーレス API として利用できます)、 Mixtral-8x7B-Instruct-v01、Mixtral-8x7B-v01、Mistral-7B-Instruct-v01、Mistral-7B-v01 (セルフホステッドマネージド エンドポイントでダウンロードして実行できます)。
モデル タイプ 資格
Codestral-2501 チャットの完了 - 入力: テキスト (262,144 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Ministral-3B チャットの完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON
Mistral Nemo チャットの完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON
Mistral-Large-2411 チャットの完了 - 入力: テキスト (128,000 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON
Mistral-large-2407
(非推奨)
チャットの完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON
Mistral-large
(非推奨)
チャットの完了 - 入力: テキスト (32,768 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON
Mistral-medium-2505 チャットの完了 - 入力: テキスト (128,000 トークン)、画像
- 出力: テキスト (128,000 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト、JSON
Mistral-OCR-2503 画像からテキストへ - 入力: 画像または PDF ページ (1,000 ページ、最大 50 MB PDF ファイル)
- 出力: テキスト
- ツールの呼び出し: 不可
- 応答形式: Text、JSON、Markdown
Mistral-small-2503 チャットの完了 (画像付き) - 入力: テキストと画像 (131,072 トークン)
イメージ ベースのトークンは 16px x 16px です
元の画像のブロック
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON
Mistral-small チャットの完了 - 入力: テキスト (32,768 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON

Azure AI Foundry ポータルでこちらのモデル コレクションを参照してください。

推論の例: Mistral

Mistral モデルのその他の使用方法例については、次の例とチュートリアルを参照してください。

説明 言語 サンプル
CURL を使用したリクエスト Bash (バッシュ) リンク
C# 用 Azure AI 推論パッケージ C# リンク
JavaScript 用 Azure AI 推論パッケージ JavaScript リンク
Python 用 Azure AI 推論パッケージ Python(プログラミング言語) リンク
Python Web 要求 Python(プログラミング言語) リンク
OpenAI SDK (試験段階) Python(プログラミング言語) Mistral - OpenAI SDK サンプル
LangChain Python(プログラミング言語) Mistral - LangChain サンプル
Mistral AI(ミストラルAI) Python(プログラミング言語) Mistral - Mistral AI サンプル
LiteLLM Python(プログラミング言語) Mistral - LiteLLM サンプル

ナイクスラ

Nixtla の TimeGEN-1 は、時系列データ用の生成的な事前トレーニング済みの予測および異常検出モデルです。 TimeGEN-1 では、履歴値と外因性共変量のみを入力として使用して、トレーニングなしで新しい時系列の正確な予測を生成できます。

推論を実行するには、TimeGEN-1 で Nixtla のカスタム推論 API を使用する必要があります。

モデル タイプ 資格 推論 API
TimeGEN-1 予測 - インプット: JSON またはデータフレームとしての時系列データ (多変量入力をサポート)
- アウトプット: JSON としての時系列データ
- ツールの呼び出し: 不可
- 応答形式: JSON
Nixtla の API と対話するようにクライアントを予測する

必要なトークンの数を見積もる

TimeGEN-1 デプロイを作成する前に、使用して課金するトークンの数を見積もると便利です。 1 つのトークンは、入力データセットまたは出力データセット内の 1 つのデータ ポイントに対応します。

次の入力時系列データセットがあるとします。

Unique_id タイムスタンプ ターゲット変数 外因性変数 1 外因性変数 2
である 2016-10-22 00:00:00 70.00 49593.0 57,253.0
である 2016-10-22 01:00:00 37.10 46073.0 51887.0

トークン数を決定するには、行の数 (この例では 2) と予測に使用する列 (unique_id と timestamp の列は数に含めない) の数 (この例では 3) を掛け合わせて、合計 6 トークンとなります。

次の出力データセットがあるとします。

Unique_id タイムスタンプ 予測ターゲット変数
である 2016-10-22 02:00:00 46.57
である 2016-10-22 03:00:00 48.57

また、データ予測後に返されるデータ ポイントの数を数えることによって、トークンの数を決定することもできます。 この例では、トークンの数は 2 です。

トークンに基づいて価格を見積もる

支払う価格を決定する 4 つの価格メーターがあります。 これらのメーターは次のとおりです。

価格メーター 説明
ペイゴー推論入力トークン finetune_steps = 0 の場合、推論の入力として使用されるトークンに関連付けられたコスト
Paygo推論出力トークン finetune_steps = 0 の場合、推論の出力として使用されるトークンに関連付けられたコスト
ペイゴー微調整モデル推論入力トークン finetune_steps> 0 の場合、推論の入力として使用されるトークンに関連付けられたコスト
ペイゴーファインチューンドモデル推論出力トークン finetune_steps> 0 の場合、推論の出力として使用されるトークンに関連付けられたコスト

Azure AI Foundry ポータルの Nixtla モデル コレクションを参照してください。

NTT DATA

ツズミ は自動回帰言語最適化トランスフォーマーです。 調整バージョンでは教師あり微調整 (SFT) を使用します。 ツズミは日本語と英語の両方を高効率で処理します。

モデル タイプ 資格
tsuzumi-7b チャットの完了 - 入力: テキスト (8,192 トークン)
- 出力: テキスト (8,192 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト

安定性 AI

画像生成モデルの安定性 AI コレクションには、Stable Image Core、Stable Image Ultra、Stable Diffusion 3.5 Large が含まれます。 Stable Diffusion 3.5 Largeは画像とテキストの入力を可能にする。

モデル タイプ 資格
Stable Diffusion 3.5 Large イメージの生成 - 入力: テキストと画像 (1000 トークンと 1 つの画像)
- 出力: 1 つの画像
- ツールの呼び出し: 不可
- 応答形式: 画像 (PNG および JPG)
安定したイメージ コア イメージの生成 - 入力: テキスト (1000 トークン)
- 出力: 1 つの画像
- ツールの呼び出し: 不可
- 応答形式: 画像 (PNG と JPG)
ステーブルイメージウルトラ イメージの生成 - 入力: テキスト (1000 トークン)
- 出力: 1 つの画像
- ツールの呼び出し: 不可
- 応答形式: 画像 (PNG と JPG)

xAI(説明可能な人工知能)

xAI の Grok 3 および Grok 3 Mini モデルは、さまざまなエンタープライズ ドメインで優れた機能を発揮するように設計されています。 Grok 3 は、コロッサス データセンターによって事前トレーニングされた推論以外のモデルで、データ抽出、コーディング、テキスト要約などのビジネス ユース ケース向けに、優れた命令に従った機能を備えています。 131,072 トークン コンテキスト ウィンドウがサポートされているため、一貫性と深さを維持しながら広範な入力を処理でき、特にドメインと言語間の接続の描画に適しています。 一方、Grok 3 Mini は、テスト時の計算能力を使って、主体的、コーディング、数学、高度な科学の問題に取り組むためにトレーニングされた軽量の推論モデルです。 また、コードベースとエンタープライズ ドキュメントを理解するための 131,072 トークン コンテキスト ウィンドウもサポートしており、ツールを使用して新しい環境での複雑な論理的な問題を解決し、ユーザーの検査のための生の推論トレースを、調整可能な思考予算で提供します。

モデル タイプ 資格
grok-3 chat-completion - 入力: テキスト (131,072 トークン)
- 出力: テキスト (131,072 トークン)
- 言語:en
- ツールの呼び出し: はい
- 応答形式: テキスト
grok-3-mini chat-completion - 入力: テキスト (131,072 トークン)
- 出力: テキスト (131,072 トークン)
- 言語:en
- ツールの呼び出し: はい
- 応答形式: テキスト

推論例: Stability AI

標準デプロイを介してデプロイされた安定性 AI モデルは、ルート /image/generationsに Foundry Models API を実装します。 安定性 AI モデルの使用方法の例については、次の例を参照してください。