Azure AI モデル カタログには、さまざまなプロバイダーから Azure AI Foundry モデルが多数用意されています。 モデル カタログからモデルをデプロイするためのさまざまなオプションがあります。 この記事では、標準デプロイを使用してデプロイできる Azure AI Foundry モデルの一覧を示します。 これらのモデルの一部では、マネージド コンピューティングを使用してデプロイ用にインフラストラクチャでホストすることもできます。
重要
プレビュー段階のモデルには、モデル カタログ内のモデル カードで "プレビュー" のマークが付けられます。
モデルで推論を実行するには、 Nixtla の TimeGEN-1 や Cohere rerank などの一部のモデルで、モデル プロバイダーのカスタム API を使用する必要があります。 Foundry Models API を使用した推論をサポートするユーザーもいます。 個々のモデルの詳細については、 Azure AI Foundry ポータルのモデル カタログでモデル カードを確認します。
AI21 Labs
Jamba ファミリ モデルは、AI21 のハイブリッド Mamba-Transformer アーキテクチャを使用した AI21 の運用環境グレードの Mamba ベース大規模言語モデル (LLM) です。 これは、AI21 のハイブリッド構造状態空間モデル (SSM) トランスフォーマー Jamba モデルのインストラクションチューニングされたバージョンです。 Jamba ファミリ モデルは、品質とパフォーマンスに関して商業利用できる信頼性を持つように構築されています。
モデル | タイプ | 資格 |
---|---|---|
AI21-Jamba-1.5-Mini | チャットの完了 | - 入力: テキスト (262,144 トークン) - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON、構造化済み出力 |
AI21-Jamba-1.5-Large | チャットの完了 | - 入力: テキスト (262,144 トークン) - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON、構造化済み出力 |
Azure AI Foundry ポータルでこちらのモデル コレクションを参照してください。
Azure OpenAI
Foundry Models の Azure OpenAI には、さまざまな機能と価格ポイントを備えたさまざまなモデル セットが用意されています。 モデルには以下のものがあります。
- 推論と問題解決のタスクに、集中力と能力を高めて取り組むように設計された最先端のモデル
- 自然言語とコードを理解して生成できるモデル
- 音声をテキストに変換し翻訳することができるモデル
モデル | タイプ | 資格 |
---|---|---|
o3-mini | チャットの完了 | - 入力: テキストと画像 (200,000 トークン) - 出力: テキスト (100,000 トークン) - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON、構造化済み出力 |
o1 | チャットの完了 (画像付き) | - 入力: テキストと画像 (200,000 トークン) - 出力: テキスト (100,000 トークン) - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON、構造化済み出力 |
o1-preview | チャットの完了 | - 入力: テキスト (128,000 トークン) - 出力: テキスト (32,768 トークン) - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON、構造化済み出力 |
o1-mini | チャットの完了 | - 入力: テキスト (128,000 トークン) - 出力: テキスト (65,536 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
gpt-4o-realtime-preview | リアルタイム | - 入力: コントロール、テキスト、オーディオ (131,072 トークン) - 出力: テキストとオーディオ (16,384 トークン) - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON |
gpt-4o | チャットの完了 (画像とオーディオ コンテンツを含む) | - 入力: テキスト、画像、オーディオ (131,072 トークン) - 出力: テキスト (16,384 トークン) - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON、構造化済み出力 |
gpt-4o-mini | チャットの完了 (画像とオーディオ コンテンツを含む) | - 入力: テキスト、画像、オーディオ (131,072 トークン) - 出力: テキスト (16,384 トークン) - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON、構造化済み出力 |
text-embedding-3-large | 埋め込み | - 入力: テキスト (8,191 トークン) - アウトプット: ベクター (3,072次元) |
text-embedding-3-small | 埋め込み | - 入力: テキスト (8,191 トークン) - アウトプット: ベクター (1,536 dim)。 |
Azure AI Foundry ポータルでこちらのモデル コレクションを参照してください。
コヒア
Cohere のモデル ファミリには、rerank、チャットの完了、埋め込みモデルなど、さまざまなユース ケース向けに最適化されたさまざまなモデルが含まれています。
Cohere コマンドと埋め込み
次の表に、Foundry Models API を使用して推論できる Cohere モデルの一覧を示します。
モデル | タイプ | 資格 |
---|---|---|
Cohere-command-A | チャットの完了 | - 入力: テキスト (256,000 トークン) - 出力: テキスト (8,000 トークン) - ツールの呼び出し: 可能 - 応答形式: テキスト |
Cohere-command-r-plus-08-2024 | チャットの完了 | - 入力: テキスト (131,072 トークン) - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON |
Cohere-command-r-08-2024 | チャットの完了 | - 入力: テキスト (131,072 トークン) - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON |
コヒア・コマンド・アール・プラス (非推奨) |
チャットの完了 | - 入力: テキスト (131,072 トークン) - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON |
Cohere-command-r (非推奨) |
チャットの完了 | - 入力: テキスト (131,072 トークン) - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON |
Cohere-embed-4 | 埋め込み image-embeddings |
- 入力: 画像、テキスト - 出力: 画像、テキスト (128,000 トークン) - ツールの呼び出し: 可能 - 応答形式: 画像、テキスト |
Cohere-embed-v3-english | 埋め込み image-embeddings |
- 入力: テキスト (512 トークン) - アウトプット: ベクター (1,024次元)。 |
Cohere-embed-v3-多言語 | 埋め込み image-embeddings |
- 入力: テキスト (512 トークン) - アウトプット: ベクター (1,024次元)。 |
推論の例: Cohere コマンドと埋め込み
Cohere モデルの使用方法のその他の例については、次の例を参照してください。
説明 | 言語 | サンプル |
---|---|---|
Web リクエスト | Bash (バッシュ) | Command-RCommand-R+ cohere-embed.ipynb |
C# 用 Azure AI 推論パッケージ | C# | リンク |
JavaScript 用 Azure AI 推論パッケージ | JavaScript | リンク |
Python 用 Azure AI 推論パッケージ | Python(プログラミング言語) | リンク |
OpenAI SDK (試験段階) | Python(プログラミング言語) | リンク |
LangChain | Python(プログラミング言語) | リンク |
Cohere SDK | Python(プログラミング言語) | コマンド 埋め込み |
LiteLLM SDK | Python(プログラミング言語) | リンク |
取得拡張生成 (RAG) とツールの使用サンプル: Cohere コマンドと埋め込み
説明 | パッケージ | サンプル |
---|---|---|
Cohere 埋め込みを使用してローカルの Facebook AI 類似性検索 (FAISS) ベクター インデックスを作成する - Langchain | langchain 、langchain_cohere |
cohere_faiss_langchain_embed.ipynb |
Cohere コマンド R/R+ を使用して、ローカルの FAISS ベクター インデックスのデータから質問に回答する - Langchain | langchain 、langchain_cohere |
command_faiss_langchain.ipynb |
Cohere コマンド R/R+ を使用して、AI 検索ベクター インデックスのデータから質問に回答する - Langchain | langchain 、langchain_cohere |
cohere-aisearch-langchain-rag.ipynb |
Cohere コマンド R/R+ を使用して、AI 検索ベクター インデックスのデータから質問に回答する - Cohere SDK | cohere 、azure_search_documents |
cohere-aisearch-rag.ipynb |
LangChain を使用したコマンド R+ ツールおよび関数呼び出し | cohere 、 langchain 、 langchain_cohere |
command_tools-langchain.ipynb |
Cohere Rerank
次の表に、Cohere の再ランク付けモデルの一覧を示します。 これらの再ランク付けモデルで推論を実行するには、表に記載されている Cohere のカスタム rerank API を使用する必要があります。
モデル | タイプ | 推論 API |
---|---|---|
Cohere-rerank-v3.5 | rerank テキスト分類 |
Cohere の v2/rerank API |
Cohere-rerank-v3-english (非推奨) |
rerank テキスト分類 |
Cohere の v2/rerank API Cohere の v1/rerank API |
Cohere-rerank-v3-多言語 (非推奨) |
rerank テキスト分類 |
Cohere の v2/rerank API Cohere の v1/rerank API |
Cohere Rerank モデルの価格
クエリは、ユーザーのクエリと混同しないように、Cohere Rerank モデルの推論の入力として使用されるトークンに関連するコストを指す価格メーターです。 Cohere では、1 つの検索単位がクエリとしてカウントされ、最大 100 個のドキュメントがランク付けされます。 検索クエリの長さを含めると、500 個を超えるトークン (Cohere-rerank-v3.5 の場合) または 4096 個を超えるトークン (Cohere-rerank-v3-English および Cohere-rerank-v3-multilingual の場合) が複数のチャンクに分割され、各チャンクは 1 つのドキュメントとしてカウントされます。
Azure AI Foundry ポータルの Cohere モデル コレクションを参照してください。
Core42
Core42 には、アラビア語の最新機能を備えたアラビア語と英語用の自動回帰のバイリンガル LLM が含まれています。
モデル | タイプ | 資格 |
---|---|---|
jais-30b-chat | チャットの完了 | - 入力: テキスト (8,192 トークン) - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON |
Azure AI Foundry ポータルでこちらのモデル コレクションを参照してください。
推論の例: Core42
Jais モデルの使用方法の他の例については、次の例を参照してください。
説明 | 言語 | サンプル |
---|---|---|
C# 用 Azure AI 推論パッケージ | C# | リンク |
JavaScript 用 Azure AI 推論パッケージ | JavaScript | リンク |
Python 用 Azure AI 推論パッケージ | Python(プログラミング言語) | リンク |
DeepSeek
DeepSeek のモデル ファミリには DeepSeek-R1 が含まれています。DeepSeek-R1 は、言語、科学的推論、コーディング タスク、DeepSeek-V3-0324、エキスパート混合 (MoE) 言語モデルなど、段階的なトレーニング プロセスを使用した推論タスクに優れています。
モデル | タイプ | 資格 |
---|---|---|
DeepSeek-R1-0528 |
推論コンテンツを使用したチャット完了 | - 入力: テキスト (163,840 トークン) - 出力: テキスト (163,840 トークン) - Languages: en そして zh - ツールの呼び出し: 不可 - 応答形式: テキスト |
DeekSeek-V3-0324 | チャットの完了 | - 入力: テキスト (131,072 トークン) - 出力: (131,072 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト、JSON |
DeepSeek-V3 (レガシー) |
チャットの完了 | - 入力: テキスト (131,072 トークン) - 出力: テキスト (131,072 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト、JSON |
DeepSeek-R1 | 推論コンテンツを使用したチャット完了 | - 入力: テキスト (163,840 トークン) - 出力: テキスト (163,840 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト。 |
DeepSeek-R1 のチュートリアルについては、「 チュートリアル: Foundry Models で推論モデル DeepSeek-R1 使用する」を参照してください。
Azure AI Foundry ポータルでこちらのモデル コレクションを参照してください。
推論の例: DeepSeek
DeepSeek モデルの使用方法の他の例については、次の例を参照してください。
説明 | 言語 | サンプル |
---|---|---|
Python 用 Azure AI 推論パッケージ | Python(プログラミング言語) | リンク |
JavaScript 用 Azure AI 推論パッケージ | JavaScript | リンク |
C# 用 Azure AI 推論パッケージ | C# | リンク |
Java 用 Azure AI 推論パッケージ | ジャワ | リンク |
メタ
Meta Llama のモデルとツールは、事前トレーニングおよび微調整された生成 AI テキストと画像推論モデルのコレクションです。 メタ モデルの範囲は、次を含むようにスケーリングされています。
- 1B や 3B Base およびデバイス上およびエッジ推論用の Instruct モデルなどの小規模言語モデル (SLM)
- 7B、8B、70B の Base および Instruct モデルなどの中規模の大規模言語モデル (LLM)
- 合成データ生成および蒸留ユース ケース向けの Meta Llama 3.1-405B Instruct などの高性能モデル。
- 高パフォーマンスのネイティブマルチモーダル モデルである Llama 4 Scout と Llama 4 Maverick は、エキスパートの混合アーキテクチャを活用して、テキストと画像の理解において業界をリードするパフォーマンスを提供します。
モデル | タイプ | 資格 |
---|---|---|
Llama-4-Scout-17B-16E-Instruct | チャットの完了 | - 入力: テキストと画像 (128,000 トークン) - 出力: テキスト (8,192 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
Llama 4-Maverick-17B-128E-Instruct-FP8 | チャットの完了 | - 入力: テキストと画像 (128,000 トークン) - 出力: テキスト (8,192 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
Llama-3.3-70B-Instruct | チャットの完了 | - 入力: テキスト (128,000 トークン) - 出力: テキスト (8,192 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
Llama-3.2-90B-Vision-Instruct | チャットの完了 (画像付き) | - 入力: テキストと画像 (128,000 トークン) - 出力: テキスト (8,192 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
Llama-3.2-11B-Vision-Instruct | チャットの完了 (画像付き) | - 入力: テキストと画像 (128,000 トークン) - 出力: テキスト (8,192 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
Meta-Llama-3.1-8B-Instruct | チャットの完了 | - 入力: テキスト (131,072 トークン) - 出力: テキスト (8,192 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
Meta-Llama-3.1-405B-Instruct | チャットの完了 | - 入力: テキスト (131,072 トークン) - 出力: テキスト (8,192 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
Meta-Llama-3.1-70B-Instruct (非推奨) | チャットの完了 | - 入力: テキスト (131,072 トークン) - 出力: テキスト (8,192 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
Meta-Llama-3-8B-Instruct (非推奨) | チャットの完了 | - 入力: テキスト (8,192 トークン) - 出力: テキスト (8,192 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
Meta-Llama-3-70B-Instruct (非推奨) | チャットの完了 | - 入力: テキスト (8,192 トークン) - 出力: テキスト (8,192 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
Azure AI Foundry ポータルでこちらのモデル コレクションを参照してください。
推論の例: Meta Llama
Meta Llama モデルの使用方法のその他の例については、次の例を参照してください。
説明 | 言語 | サンプル |
---|---|---|
CURL を使用したリクエスト | Bash (バッシュ) | リンク |
C# 用 Azure AI 推論パッケージ | C# | リンク |
JavaScript 用 Azure AI 推論パッケージ | JavaScript | リンク |
Python 用 Azure AI 推論パッケージ | Python(プログラミング言語) | リンク |
Python Web 要求 | Python(プログラミング言語) | リンク |
OpenAI SDK (試験段階) | Python(プログラミング言語) | リンク |
LangChain | Python(プログラミング言語) | リンク |
LiteLLM | Python(プログラミング言語) | リンク |
Microsoft
Microsoft モデルには、MAI モデル、Phi モデル、医療 AI モデルなど、さまざまなモデル グループが含まれています。 使用可能なすべての Microsoft モデルを表示するには、 Azure AI Foundry ポータルで Microsoft モデル コレクションを表示します。
モデル | タイプ | 資格 |
---|---|---|
MAI-DS-R1 | 推論コンテンツを使用したチャット完了 | - 入力: テキスト (163,840 トークン) - 出力: テキスト (163,840 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト。 |
Phi-4-reasoning | 推論コンテンツを使用したチャット完了 | - 入力: テキスト (32768 トークン) - 出力: テキスト (32768 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
Phi-4-ミニ推理 | 推論コンテンツを使用したチャット完了 | - 入力: テキスト (128,000 トークン) - 出力: テキスト (128,000 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
Phi-4-multimodal-instruct | チャットの完了 (画像とオーディオ コンテンツを含む) | - 入力: テキスト、画像、オーディオ (131,072 トークン) - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
Phi-4-mini-instruct | チャットの完了 | - 入力: テキスト (131,072 トークン) - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
Phi-4 | チャットの完了 | - 入力: テキスト (16,384 トークン) - 出力: テキスト (16,384 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
Phi-3.5-mini-instruct | チャットの完了 | - 入力: テキスト (131,072 トークン) - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
Phi-3.5-MoE-instruct | チャットの完了 | - 入力: テキスト (131,072 トークン) - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
Phi-3.5-vision-instruct | チャットの完了 (画像付き) | - 入力: テキストと画像 (131,072 トークン) - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
Phi-3-mini-128k-instruct | チャットの完了 | - 入力: テキスト (131,072 トークン) - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
Phi-3-mini-4k-instruct | チャットの完了 | - 入力: テキスト (4,096 トークン) - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
Phi-3-small-128k-instruct | チャットの完了 | - 入力: テキスト (131,072 トークン) - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
Phi-3-small-8k-instruct | チャットの完了 | - 入力: テキスト (131,072 トークン) - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
Phi-3-medium-128k-instruct | チャットの完了 | - 入力: テキスト (131,072 トークン) - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
Phi-3-medium-4k-instruct | チャットの完了 | - 入力: テキスト (4,096 トークン) - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
推論の例: Microsoft モデル
Microsoft モデルの使用方法のその他の例については、次の例を参照してください。
説明 | 言語 | サンプル |
---|---|---|
C# 用 Azure AI 推論パッケージ | C# | リンク |
JavaScript 用 Azure AI 推論パッケージ | JavaScript | リンク |
Python 用 Azure AI 推論パッケージ | Python(プログラミング言語) | リンク |
LangChain | Python(プログラミング言語) | リンク |
Llama-Index | Python(プログラミング言語) | リンク |
Azure AI Foundry ポータルの Microsoft モデル コレクションを参照してください。
Mistral AI(ミストラルAI)
Mistral AI では、次の 2 つのカテゴリのモデルを提供しています。
- Premium モデル: これらには、Mistral Large、Mistral Small、Mistral-OCR-2503、Mistral Medium 3 (25.05)、および Ministral 3B モデルが含まれており、従量課金制トークンベースの課金でサーバーレス API として利用できます。
- オープンモデル:ミストラル-small-2503、 Codestral、および Mistral Nemo (従量課金制トークン ベースの課金でサーバーレス API として利用できます)、 Mixtral-8x7B-Instruct-v01、Mixtral-8x7B-v01、Mistral-7B-Instruct-v01、Mistral-7B-v01 (セルフホステッドマネージド エンドポイントでダウンロードして実行できます)。
モデル | タイプ | 資格 |
---|---|---|
Codestral-2501 | チャットの完了 | - 入力: テキスト (262,144 トークン) - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
Ministral-3B | チャットの完了 | - 入力: テキスト (131,072 トークン) - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON |
Mistral Nemo | チャットの完了 | - 入力: テキスト (131,072 トークン) - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON |
Mistral-Large-2411 | チャットの完了 | - 入力: テキスト (128,000 トークン) - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON |
Mistral-large-2407 (非推奨) |
チャットの完了 | - 入力: テキスト (131,072 トークン) - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON |
Mistral-large (非推奨) |
チャットの完了 | - 入力: テキスト (32,768 トークン) - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON |
Mistral-medium-2505 | チャットの完了 | - 入力: テキスト (128,000 トークン)、画像 - 出力: テキスト (128,000 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト、JSON |
Mistral-OCR-2503 | 画像からテキストへ | - 入力: 画像または PDF ページ (1,000 ページ、最大 50 MB PDF ファイル) - 出力: テキスト - ツールの呼び出し: 不可 - 応答形式: Text、JSON、Markdown |
Mistral-small-2503 | チャットの完了 (画像付き) | - 入力: テキストと画像 (131,072 トークン) イメージ ベースのトークンは 16px x 16px です 元の画像のブロック - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON |
Mistral-small | チャットの完了 | - 入力: テキスト (32,768 トークン) - 出力: テキスト (4,096 トークン) - ツールの呼び出し: 可能 - 応答形式: テキスト、JSON |
Azure AI Foundry ポータルでこちらのモデル コレクションを参照してください。
推論の例: Mistral
Mistral モデルのその他の使用方法例については、次の例とチュートリアルを参照してください。
説明 | 言語 | サンプル |
---|---|---|
CURL を使用したリクエスト | Bash (バッシュ) | リンク |
C# 用 Azure AI 推論パッケージ | C# | リンク |
JavaScript 用 Azure AI 推論パッケージ | JavaScript | リンク |
Python 用 Azure AI 推論パッケージ | Python(プログラミング言語) | リンク |
Python Web 要求 | Python(プログラミング言語) | リンク |
OpenAI SDK (試験段階) | Python(プログラミング言語) | Mistral - OpenAI SDK サンプル |
LangChain | Python(プログラミング言語) | Mistral - LangChain サンプル |
Mistral AI(ミストラルAI) | Python(プログラミング言語) | Mistral - Mistral AI サンプル |
LiteLLM | Python(プログラミング言語) | Mistral - LiteLLM サンプル |
ナイクスラ
Nixtla の TimeGEN-1 は、時系列データ用の生成的な事前トレーニング済みの予測および異常検出モデルです。 TimeGEN-1 では、履歴値と外因性共変量のみを入力として使用して、トレーニングなしで新しい時系列の正確な予測を生成できます。
推論を実行するには、TimeGEN-1 で Nixtla のカスタム推論 API を使用する必要があります。
モデル | タイプ | 資格 | 推論 API |
---|---|---|---|
TimeGEN-1 | 予測 | - インプット: JSON またはデータフレームとしての時系列データ (多変量入力をサポート) - アウトプット: JSON としての時系列データ - ツールの呼び出し: 不可 - 応答形式: JSON |
Nixtla の API と対話するようにクライアントを予測する |
必要なトークンの数を見積もる
TimeGEN-1 デプロイを作成する前に、使用して課金するトークンの数を見積もると便利です。 1 つのトークンは、入力データセットまたは出力データセット内の 1 つのデータ ポイントに対応します。
次の入力時系列データセットがあるとします。
Unique_id | タイムスタンプ | ターゲット変数 | 外因性変数 1 | 外因性変数 2 |
---|---|---|---|---|
である | 2016-10-22 00:00:00 | 70.00 | 49593.0 | 57,253.0 |
である | 2016-10-22 01:00:00 | 37.10 | 46073.0 | 51887.0 |
トークン数を決定するには、行の数 (この例では 2) と予測に使用する列 (unique_id と timestamp の列は数に含めない) の数 (この例では 3) を掛け合わせて、合計 6 トークンとなります。
次の出力データセットがあるとします。
Unique_id | タイムスタンプ | 予測ターゲット変数 |
---|---|---|
である | 2016-10-22 02:00:00 | 46.57 |
である | 2016-10-22 03:00:00 | 48.57 |
また、データ予測後に返されるデータ ポイントの数を数えることによって、トークンの数を決定することもできます。 この例では、トークンの数は 2 です。
トークンに基づいて価格を見積もる
支払う価格を決定する 4 つの価格メーターがあります。 これらのメーターは次のとおりです。
価格メーター | 説明 |
---|---|
ペイゴー推論入力トークン | finetune_steps = 0 の場合、推論の入力として使用されるトークンに関連付けられたコスト |
Paygo推論出力トークン | finetune_steps = 0 の場合、推論の出力として使用されるトークンに関連付けられたコスト |
ペイゴー微調整モデル推論入力トークン | finetune_steps> 0 の場合、推論の入力として使用されるトークンに関連付けられたコスト |
ペイゴーファインチューンドモデル推論出力トークン | finetune_steps> 0 の場合、推論の出力として使用されるトークンに関連付けられたコスト |
Azure AI Foundry ポータルの Nixtla モデル コレクションを参照してください。
NTT DATA
ツズミ は自動回帰言語最適化トランスフォーマーです。 調整バージョンでは教師あり微調整 (SFT) を使用します。 ツズミは日本語と英語の両方を高効率で処理します。
モデル | タイプ | 資格 |
---|---|---|
tsuzumi-7b | チャットの完了 | - 入力: テキスト (8,192 トークン) - 出力: テキスト (8,192 トークン) - ツールの呼び出し: 不可 - 応答形式: テキスト |
安定性 AI
画像生成モデルの安定性 AI コレクションには、Stable Image Core、Stable Image Ultra、Stable Diffusion 3.5 Large が含まれます。 Stable Diffusion 3.5 Largeは画像とテキストの入力を可能にする。
モデル | タイプ | 資格 |
---|---|---|
Stable Diffusion 3.5 Large | イメージの生成 | - 入力: テキストと画像 (1000 トークンと 1 つの画像) - 出力: 1 つの画像 - ツールの呼び出し: 不可 - 応答形式: 画像 (PNG および JPG) |
安定したイメージ コア | イメージの生成 | - 入力: テキスト (1000 トークン) - 出力: 1 つの画像 - ツールの呼び出し: 不可 - 応答形式: 画像 (PNG と JPG) |
ステーブルイメージウルトラ | イメージの生成 | - 入力: テキスト (1000 トークン) - 出力: 1 つの画像 - ツールの呼び出し: 不可 - 応答形式: 画像 (PNG と JPG) |
xAI(説明可能な人工知能)
xAI の Grok 3 および Grok 3 Mini モデルは、さまざまなエンタープライズ ドメインで優れた機能を発揮するように設計されています。 Grok 3 は、コロッサス データセンターによって事前トレーニングされた推論以外のモデルで、データ抽出、コーディング、テキスト要約などのビジネス ユース ケース向けに、優れた命令に従った機能を備えています。 131,072 トークン コンテキスト ウィンドウがサポートされているため、一貫性と深さを維持しながら広範な入力を処理でき、特にドメインと言語間の接続の描画に適しています。 一方、Grok 3 Mini は、テスト時の計算能力を使って、主体的、コーディング、数学、高度な科学の問題に取り組むためにトレーニングされた軽量の推論モデルです。 また、コードベースとエンタープライズ ドキュメントを理解するための 131,072 トークン コンテキスト ウィンドウもサポートしており、ツールを使用して新しい環境での複雑な論理的な問題を解決し、ユーザーの検査のための生の推論トレースを、調整可能な思考予算で提供します。
モデル | タイプ | 資格 |
---|---|---|
grok-3 | chat-completion | - 入力: テキスト (131,072 トークン) - 出力: テキスト (131,072 トークン) - 言語: en - ツールの呼び出し: はい - 応答形式: テキスト |
grok-3-mini | chat-completion | - 入力: テキスト (131,072 トークン) - 出力: テキスト (131,072 トークン) - 言語: en - ツールの呼び出し: はい - 応答形式: テキスト |
推論例: Stability AI
標準デプロイを介してデプロイされた安定性 AI モデルは、ルート /image/generations
に Foundry Models API を実装します。
安定性 AI モデルの使用方法の例については、次の例を参照してください。
- テキストから画像への要求に対して安定性 AI モデルで OpenAI SDK を使用する
- Requestsライブラリを使用して、テキストから画像へのリクエストをStability AIモデルに送信する
- 画像間のリクエストに対して、Requests ライブラリを用いて Stable Diffusion 3.5 Large を使用する
- 完全にエンコードされた画像生成応答の例