Azureが直接販売する鋳造モデル

モデル カタログの Microsoft Foundry Models は、 Azure から直接販売される パートナーとコミュニティのファンドリー モデルという 2 つの主要なカテゴリで構成されます。 この記事では、Azureによって直接販売される Foundry モデルの一覧と、その機能、展開の種類、および非推奨および廃止されたモデルを除く可用性のリージョンについて説明します。 Azureが直接販売する鋳造モデルは、direct from Azure Models または Azure Direct Models とも呼ばれます。

Azureによって直接販売されるモデルには、すべてのAzure OpenAI モデルと、上位プロバイダーから選択された特定のモデルが含まれます。 これらのモデルは、Azure サブスクリプションを通じて課金され、Azureサービス レベル アグリーメントの対象となり、Microsoftによってサポートされます。 Foundry Agent Service でサポートされている Foundry モデルの一覧については、「 エージェント サービスでサポートされるモデル」を参照してください。また、パートナーからの Foundry モデルの一覧については、 パートナーとコミュニティの Foundry モデルを参照してください。

ヒント

このページの上部にあるタブを使用して、Cohere、DeepSeek、Meta、Mistral AI、xAI などのプロバイダーから Azure OpenAI モデル その他のモデル コレクション を切り替えます。

Microsoft Foundry モデルで OpenAI をAzureする

Azure OpenAI は、さまざまな機能と価格ポイントを備えた多様なモデルセットを利用しています。 モデルの可用性は、リージョンとクラウドによって異なります。 モデルの可用性Azure Governmentについては、Azure Government の Azure OpenAI に関するページを参照してください。

モデル 説明
GPT-5.5 シリーズ 新機能gpt-5.5
GPT-5.4 シリーズ NEWgpt-5.4-minigpt-5.4-nanogpt-5.4gpt-5.4-pro
GPT-5.3 シリーズ gpt-5.3-chatgpt-5.3-codex
GPT-5.2 シリーズ gpt-5.2-codexgpt-5.2gpt-5.2-chatPreview
GPT-5.1 シリーズ gpt-5.1gpt-5.1-chatPreviewgpt-5.1-codexgpt-5.1-codex-mini
そら NEWora-2
GPT-5 シリーズ gpt-5gpt-5-minigpt-5-nanogpt-5-chatPreview
gpt-oss オープンウェイト推論モデル
codex-mini o4-miniの微調整されたバージョン。
GPT-4.1 シリーズ gpt-4.1gpt-4.1-minigpt-4.1-nano
computer-use-preview Responses API コンピューター使用ツールで使用するためにトレーニングされた実験モデル。
o シリーズ モデル 高度な問題解決とフォーカスと能力の向上を備えた推論モデル
GPT-4o、GPT-4o mini、GPT-4 Turbo テキストと画像の両方を入力として受け入れることができるマルチモーダル バージョンの OpenAI モデルをAzureできます。
埋め込み テキストの類似性を容易にするためにテキストを数値ベクトル形式に変換できるモデルのセット。
イメージの生成 自然言語から元の画像を生成できる一連のモデル。
Video generation テキスト命令から元のビデオ シーンを生成できるモデル。
オーディオ 音声テキスト変換、翻訳、およびテキスト読み上げのための一連のモデル。 GPT-4o オーディオ モデルでは、低待機時間 の音声イン、音声アウト の会話操作、またはオーディオ生成がサポートされます。

GPT-5.5

モデル 地域
gpt-5.5 グローバル標準:
米国東部 2
スウェーデン中部
米国中南部
ポーランド中部

Datazone Standard:
米国東部 2
米国中南部
ポーランド中部
スウェーデン中部
モデル ID 説明 コンテキスト ウィンドウ 最大出力トークン数 トレーニング データ (最大)
gpt-5.5 (2026-04-24) - 推論
- 応答 API
- Chat Completions API。
- 構造化された出力。
- テキストと画像処理。
- 関数、ツール、および並列ツール呼び出し。
- コンピューターの使用
- 機能の完全な概要
1,050,000 br>
入力: 922,000
出力: 128,000
128,000 2025 年 12 月

メモ

一部 のクォータレベル では、 gpt-5.5 がこのモデルをデプロイできるようにするためにクォータ要求が必要になります。 レベル 5 と階層 6 のサブスクリプションには、既定でクォータがあります。

GPT-5.4

モデル 地域
gpt-5.4 モデルのを参照してください
gpt-5.4-pro モデルのを参照してください
gpt-5.4-mini モデルのを参照してください
gpt-5.4.nano モデルのを参照してください
モデル ID 説明 コンテキスト ウィンドウ 最大出力トークン数 トレーニング データ (最大)
gpt-5.4 (2026-03-05) - 推論
- 応答 API
- Chat Completions API。
- 構造化された出力。
- テキストと画像処理。
- 関数、ツール、および並列ツール呼び出し。
- コンピューターの使用
- 機能の完全な概要
1,050,000 128,000 2025 年 8 月
gpt-5.4-pro (2026-03-05) - 推論
- 応答 API
- テキストと画像処理。
- 関数とツール
- 機能の完全な概要
1,050,000 128,000 2025 年 8 月
gpt-5.4-mini (2026-03-17) - 推論
- 応答 API
- Chat Completions API。
- 構造化された出力。
- テキストと画像処理。
- 関数、ツール、および並列ツール呼び出し。
- コンピューターの使用
- 機能の完全な概要
400,000

入力: 272,000
出力: 128,000
128,000 2025 年 8 月
gpt-5.4-nano (2026-03-17) - 推論
- 応答 API
- Chat Completions API。
- 構造化された出力。
- テキストと画像処理。
- 関数、ツール、および並列ツール呼び出し。
- 機能の完全な概要
400,000

入力: 272,000
出力: 128,000
128,000 2025 年 8 月

GPT-5.3

モデル 地域
gpt-5.3-codex モデルのを参照してください
gpt-5.3-chat 米国東部 2 およびスウェーデン中部 (グローバル標準)
モデル ID 説明 コンテキスト ウィンドウ 最大出力トークン数 トレーニング データ (最大)
gpt-5.3-codex (2026-02-24) - 推論
- 応答 API
- 構造化された出力。
- テキストと画像処理。
- 関数、ツール、および並列ツール呼び出し。
- 機能の完全な概要
- Codex CLI および Codex VS Code 拡張機能用に最適化
400,000

入力: 272,000
出力: 128,000
128,000 2025 年 8 月
gpt-5.3-chat (2026-03-03)
プレビュー
- Chat Completions API。
- 応答 API
- 構造化された出力
- 関数、ツール、および並列ツール呼び出し。
128,000

入力: 111,616
出力: 16,384
16,384 2025 年 8 月

GPT-5.2

リージョンの可用性

モデル 地域
gpt-5.2 モデルの を参照してください。
gpt-5.2-chat プレビュー モデルの を参照してください。
gpt-5.2-codex モデルのを参照してください
モデル ID 説明 コンテキスト ウィンドウ 最大出力トークン数 トレーニング データ (最大)
gpt-5.2-codex (2026-01-14) - 推論
- 応答 API
- 構造化された出力。
- テキストと画像処理。
- 関数、ツール、および並列ツール呼び出し。
- 機能の完全な概要
- Codex CLI および Codex VS Code 拡張機能用に最適化
400,000

入力: 272,000
出力: 128,000
128,000
gpt-5.2 (2025-12-11) - 推論
- Chat Completions API。
- 応答 API
- 構造化された出力。
- テキストと画像処理。
- 関数、ツール、および並列ツール呼び出し。
- 機能の完全な概要
400,000

入力: 272,000
出力: 128,000
128,000 2025 年 8 月
gpt-5.2-chat (2025-12-11)
プレビュー
- Chat Completions API。
- 応答 API
- 構造化された出力
- 関数、ツール、および並列ツール呼び出し。
128,000

入力: 111,616
出力: 16,384
16,384 2025 年 8 月
gpt-5.2-chat (2026-02-10)
プレビュー
- Chat Completions API。
- 応答 API
- 構造化された出力
- 関数、ツール、および並列ツール呼び出し。
128,000

入力: 111,616
出力: 16,384
16,384 2025 年 8 月

注意

運用環境でプレビュー モデルを使用することはお勧めしません。 プレビュー モデルのすべてのデプロイを、将来のプレビュー バージョンまたは最新の安定した一般公開バージョンにアップグレードします。 プレビューが指定されているモデルは、OpenAI モデルのライフサイクルAzure標準に従っていません。

GPT-5.1

リージョンの可用性

モデル 地域
gpt-5.1 モデルの を参照してください。
gpt-5.1-chat プレビュー モデルの を参照してください。
gpt-5.1-codex モデルの を参照してください。
gpt-5.1-codex-mini モデルの を参照してください。
gpt-5.1-codex-max モデルの を参照してください。
モデル ID 説明 コンテキスト ウィンドウ 最大出力トークン数 トレーニング データ (最大)
gpt-5.1 (2025-11-13) - 推論
- Chat Completions API。
- 応答 API
- 構造化された出力。
- テキストと画像処理。
- 関数、ツール、および並列ツール呼び出し。
- 機能の完全な概要
400,000

入力: 272,000
出力: 128,000
128,000 2024 年 9 月 30 日
gpt-5.1-chat (2025-11-13)
プレビュー
- 推論
- Chat Completions API。
- 応答 API
- 構造化された出力
- 関数、ツール、および並列ツール呼び出し。
128,000

入力: 111,616
出力: 16,384
16,384 2024 年 9 月 30 日
gpt-5.1-codex (2025-11-13) - 応答 API のみ。
- テキストと画像処理
- 構造化された出力。
- 関数、ツール、および並列ツール呼び出し。
- 機能の完全な概要
- Codex CLI および Codex VS Code 拡張機能用に最適化
400,000

入力: 272,000
出力: 128,000
128,000 2024 年 9 月 30 日
gpt-5.1-codex-mini (2025-11-13) - 応答 API のみ。
- テキストと画像処理
- 構造化された出力。
- 関数、ツール、および並列ツール呼び出し。
- 機能の完全な概要
- Codex CLI および Codex VS Code 拡張機能用に最適化
400,000

入力: 272,000
出力: 128,000
128,000 2024 年 9 月 30 日
gpt-5.1-codex-max (2025-12-04) - 応答 API のみ。
- テキストと画像処理
- 構造化された出力。
- 関数、ツール、および並列ツール呼び出し。
- 機能の完全な概要
- Codex CLI および Codex VS Code 拡張機能用に最適化
400,000

入力: 272,000
出力: 128,000
128,000 2024 年 9 月 30 日

注意

運用環境でプレビュー モデルを使用することはお勧めしません。 プレビュー モデルのすべてのデプロイを、将来のプレビュー バージョンまたは最新の安定した一般公開バージョンにアップグレードします。 プレビューが指定されているモデルは、OpenAI モデルのライフサイクルAzure標準に従っていません。

大事な

  • gpt-5.1 reasoning_effort は既定で none に設定されます。 以前の推論モデルから gpt-5.1にアップグレードする場合は、推論を実行する場合は、 reasoning_effort レベルを明示的に渡すようにコードを更新する必要がある場合があることに注意してください。

  • gpt-5.1-chat は、組み込みの推論機能を追加します。 他の 推論モデル と同様に、 temperatureなどのパラメーターはサポートされません。 gpt-5-chat (推論モデルではない) を使用してgpt-5.1-chatアップグレードする場合は、推論モデルでサポートされていないtemperatureなどのカスタム パラメーターをコードから削除してください。

  • gpt-5.1-codex-max は、 reasoning_effortxhighに設定するためのサポートを追加します。 noneでは、gpt-5.1-codex-maxの推論作業はサポートされていません。

GPT-5

リージョンの可用性

モデル 地域
gpt-5 (2025-08-07) モデルの を参照してください。
gpt-5-mini (2025-08-07) モデルの を参照してください。
gpt-5-nano (2025-08-07) モデルの を参照してください。
gpt-5-chat (2025-08-07) プレビュー モデルの を参照してください。
gpt-5-chat (2025-10-03) プレビュー モデルの を参照してください。
gpt-5-codex (2025-09-11) モデルの を参照してください。
gpt-5-pro (2025-10-06) モデルの を参照してください。
モデル ID 説明 コンテキスト ウィンドウ 最大出力トークン数 トレーニング データ (最大)
gpt-5 (2025-08-07) - 推論
- Chat Completions API。
- 応答 API
- 構造化された出力。
- テキストと画像処理。
- 関数、ツール、および並列ツール呼び出し。
- 機能の完全な概要
400,000

入力: 272,000
出力: 128,000
128,000 2024 年 9 月 30 日
gpt-5-mini (2025-08-07) - 推論
- Chat Completions API。
- 応答 API
- 構造化された出力。
- テキストと画像処理。
- 関数、ツール、および並列ツール呼び出し。
- 機能の完全な概要
400,000

入力: 272,000
出力: 128,000
128,000 2024 年 5 月 31 日
gpt-5-nano (2025-08-07) - 推論
- Chat Completions API。
- 応答 API
- 構造化された出力。
- テキストと画像処理。
- 関数、ツール、および並列ツール呼び出し。
- 機能の完全な概要
400,000

入力: 272,000
出力: 128,000
128,000 2024 年 5 月 31 日
gpt-5-chat (2025-08-07)
プレビュー
- Chat Completions API。
- 応答 API
- 入力: テキスト/画像
- 出力: テキストのみ
128,000 16,384 2024 年 9 月 30 日
gpt-5-chat (2025-10-03)
プレビュー1
- Chat Completions API。
- 応答 API
- 入力: テキスト/画像
- 出力: テキストのみ
128,000 16,384 2024 年 9 月 30 日
gpt-5-codex (2025-09-11) - 応答 API のみ。
- 入力: テキスト/画像
- 出力: テキストのみ
- 構造化された出力。
- テキストと画像処理。
- 関数、ツール、および並列ツール呼び出し。
- 機能の完全な概要
- Codex CLI および Codex VS Code 拡張機能用に最適化
400,000

入力: 272,000
出力: 128,000
128,000 -
gpt-5-pro (2025-10-06) - 推論
- 応答 API
- 構造化された出力。
- テキストと画像処理。
- 関数とツール
- 機能の完全な概要
400,000

入力: 272,000
出力: 128,000
128,000 2024 年 9 月 30 日

メモ

1gpt-5-chat バージョン 2025-10-03 は、感情的な知性と精神的健康能力に焦点を当てた重要な強化を導入します。 このアップグレードでは、特殊なデータセットと調整された応答戦略が統合され、モデルの次の機能が向上します。

  • 感情コンテキストをより正確に理解して解釈し、微妙で共感的な相互作用を可能にします。
  • メンタルヘルスに関連する会話でサポート的で責任ある対応を提供し、秘密度とベスト プラクティスへの準拠を確保します。

これらの改善により、GPT-5 チャットは、感情的なトーンと幸福に関する考慮事項が重要なシナリオで、コンテキストに対応し、人間中心で信頼性が高くなります。

注意

運用環境でプレビュー モデルを使用することはお勧めしません。 プレビュー モデルのすべてのデプロイを、将来のプレビュー バージョンまたは最新の安定した一般公開バージョンにアップグレードします。 プレビューが指定されているモデルは、OpenAI モデルのライフサイクルAzure標準に従っていません。

gpt-oss

リージョンの可用性

モデル 地域
gpt-oss-120b すべての Azure OpenAI リージョン

機能

モデル ID 説明 コンテキスト ウィンドウ 最大出力トークン数 トレーニング データ (最大)
gpt-oss-120b (プレビュー) - テキストイン/テキストアウトのみ
- Chat Completions API(チャット完了API)
-ストリーミング
- 関数呼び出し
- 構造化された出力
-推論
- デプロイ1 およびマネージド コンピューティングを使用して使用できます
131,072 131,072 2024 年 5 月 31 日
gpt-oss-20b (プレビュー) - テキストイン/テキストアウトのみ
- Chat Completions API(チャット完了API)
-ストリーミング
- 関数呼び出し
- 構造化された出力
-推論
- マネージド コンピューティングFoundry Local を介して使用可能
131,072 131,072 2024 年 5 月 31 日

1他のAzure OpenAI モデルgpt-oss-120bとは異なり、モデルをデプロイするにはFoundry プロジェクトが必要です。

コードを使用してデプロイする

az cognitiveservices account deployment create \
  --name "Foundry-project-resource" \
  --resource-group "test-rg" \
  --deployment-name "gpt-oss-120b" \
  --model-name "gpt-oss-120b" \
  --model-version "1" \
  --model-format "OpenAI-OSS" \
  --sku-capacity 10 \
  --sku-name "GlobalStandard"

GPT-4.1 シリーズ

リージョンの可用性

モデル 地域
gpt-4.1 (2025-04-14) モデルの を参照してください。
gpt-4.1-nano (2025-04-14) モデルの を参照してください。
gpt-4.1-mini (2025-04-14) モデルの を参照してください。

機能

大事な

既知の問題は、すべての GPT 4.1 シリーズ モデルに影響します。 300,000 トークンを超える大規模なツールまたは関数呼び出しの定義では、モデルの 100 万個のトークン コンテキスト制限に達しなかった場合でも、エラーが発生します。

エラーは、API 呼び出しと基になるペイロードの特性によって異なる場合があります。

Chat Completions API のエラー メッセージを次に示します。

  • Error code: 400 - {'error': {'message': "This model's maximum context length is 300000 tokens. However, your messages resulted in 350564 tokens (100 in the messages, 350464 in the functions). Please reduce the length of the messages or functions.", 'type': 'invalid_request_error', 'param': 'messages', 'code': 'context_length_exceeded'}}

  • Error code: 400 - {'error': {'message': "Invalid 'tools[0].function.description': string too long. Expected a string with maximum length 1048576, but got a string with length 2778531 instead.", 'type': 'invalid_request_error', 'param': 'tools[0].function.description', 'code': 'string_above_max_length'}}

Responses API のエラー メッセージを次に示します。

  • Error code: 500 - {'error': {'message': 'The server had an error processing your request. Sorry about that! You can retry your request, or contact us through an Azure support request at: https://go.microsoft.com/fwlink/?linkid=2213926 if you keep seeing this error. (Please include the request ID d2008353-291d-428f-adc1-defb5d9fb109 in your email.)', 'type': 'server_error', 'param': None, 'code': None}}
モデル ID 説明 コンテキスト ウィンドウ 最大出力トークン トレーニング データ (最大)
gpt-4.1 (2025-04-14) - テキストと画像の入力
- テキスト出力
- チャット入力候補 API
- レスポンスAPI
-ストリーミング
- 関数呼び出し
- 構造化された出力 (チャットの完了)
- 1,047,576
- 300,000 (標準およびプロビジョニングされたマネージド デプロイ)
- 128,000 (バッチ デプロイ)
32,768 2024 年 5 月 31 日
gpt-4.1-nano (2025-04-14) - テキストと画像の入力
- テキスト出力
- チャット入力候補 API
- レスポンスAPI
-ストリーミング
- 関数呼び出し
- 構造化された出力 (チャットの完了)
- 1,047,576
- 300,000 (標準およびプロビジョニングされたマネージド デプロイ)
- 128,000 (バッチ デプロイ)
32,768 2024 年 5 月 31 日
gpt-4.1-mini (2025-04-14) - テキストと画像の入力
- テキスト出力
- チャット入力候補 API
- レスポンスAPI
-ストリーミング
- 関数呼び出し
- 構造化された出力 (チャットの完了)
- 1,047,576
- 300,000 (標準およびプロビジョニングされたマネージド デプロイ)
- 128,000 (バッチ デプロイ)
32,768 2024 年 5 月 31 日

computer-use-preview

Responses API コンピューター使用ツールで使用するためにトレーニングされた実験モデル。

現在の環境のスクリーンショットからコンテキストを取得しながら、モデルがマウスとキーボードの入力を制御できるように、サード パーティ製ライブラリと共に使用できます。

注意

運用環境でプレビュー モデルを使用することはお勧めしません。 プレビュー モデルのすべてのデプロイを、将来のプレビュー バージョンまたは最新の安定した一般公開バージョンにアップグレードします。 プレビューが指定されているモデルは、OpenAI モデルのライフサイクルAzure標準に従っていません。

computer-use-previewにアクセスするには登録が必要です。 アクセスは、Microsoftの適格性基準に基づいて付与されます。 他の制限付きアクセス モデルにアクセスできるお客様は、引き続きこのモデルへのアクセスを要求する必要があります。

アクセスを要求するには、制限付きアクセス モデル アプリケーションcomputer-use-preview移動します。 アクセス権が付与されたら、モデルのデプロイを作成する必要があります。

リージョンの可用性

モデル 地域
computer-use-preview モデルの を参照してください。

機能

モデル ID 説明 コンテキスト ウィンドウ 最大出力トークン トレーニング データ (最大)
computer-use-preview (2025-03-11) Responses API コンピューター使用ツールで使用するための特殊なモデル

-ツール
-ストリーミング
- テキスト (入力/出力)
- イメージ (入力)
8,192 1,024 2023 年 10 月

o シリーズ モデル

Azure OpenAI o シリーズ モデルは、集中力と能力を高め、推論と問題解決のタスクに取り組むために設計されています。 これらのモデルは、ユーザーの要求の処理と理解に多くの時間を費やし、以前のイテレーションと比較して、科学、コーディング、数学などの分野で非常に強力になります。

モデル ID 説明 最大要求数 (トークン) トレーニング データ (最大)
codex-mini (2025-05-16) o4-miniの微調整されたバージョン。
- 応答 API
- 構造化された出力。
- テキストと画像処理。
- 関数とツール。
機能の完全な概要
入力: 200,000
出力: 100,000
2024 年 5 月 31 日
o3-pro (2025-06-10) - 応答 API
- 構造化された出力。
- テキストと画像処理。
- 関数とツール。
機能の完全な概要
入力: 200,000
出力: 100,000
2024 年 5 月 31 日
o4-mini (2025-04-16) - 新しい 推論モデル、 強化された推論能力を提供します
- Chat Completions API。
- 応答 API
- 構造化された出力。
- テキストと画像処理。
- 関数とツール。
機能の完全な概要
入力: 200,000
出力: 100,000
2024 年 5 月 31 日
o3 (2025-04-16) - 新しい 推論モデル、 強化された推論能力を提供します
- Chat Completions API。
- 応答 API
- 構造化された出力。
- テキストと画像処理。
- 関数、ツール、および並列ツール呼び出し。
機能の完全な概要
入力: 200,000
出力: 100,000
2024 年 5 月 31 日
o3-mini (2025-01-31) - 推論能力の強化
- 構造化された出力。
- テキストのみの処理。
- 関数とツール。
入力: 200,000
出力: 100,000
2023 年 10 月
o1 (2024-12-17) - 推論能力の強化
- 構造化された出力。
- テキストと画像処理。
- 関数とツール。
入力: 200,000
出力: 100,000
2023 年 10 月
o1-preview (2024-09-12) 以前のプレビュー バージョン。 入力: 128,000
出力: 32,768
2023 年 10 月
o1-mini (2024-09-12) o1シリーズのより速く、よりコスト効率の高いオプションで、速度とリソース消費の削減を必要とするタスクのコーディングに最適です。
- 既定で使用可能なグローバル標準デプロイ。
- Standard (リージョン) デプロイは、現在、 o1-preview 制限付きアクセス リリースの一部としてアクセスを受け取った一部のお客様にのみ使用できます。
入力: 128,000
出力: 65,536
2023 年 10 月

高度な o シリーズ モデルの詳細については、「推論モデル の概要」を参照してください。

リージョンの可用性

モデル 地域
codex-mini 米国東部 2 およびスウェーデン中部 (グローバル標準)。
o3-pro 米国東部 2 およびスウェーデン中部 (グローバル標準)。
o4-mini モデルの を参照してください。
o3 モデルの を参照してください。
o3-mini モデルの を参照してください。
o1 モデルの を参照してください。
o1-preview モデルの を参照してください。 このモデルは、元の制限付きアクセスの一部としてアクセス権が付与されたお客様のみが使用できます。
o1-mini モデルの を参照してください。

GPT-4o および GPT-4 Turbo

GPT-4o は、テキストと画像を 1 つのモデルに統合し、複数のデータ型を同時に処理できるようにします。 このマルチモーダル アプローチにより、人間とコンピューターの対話における精度と応答性が向上します。 GPT-4o は、英語以外の言語のタスクやビジョン タスクで優れたパフォーマンスを提供しながら、英語テキストおよびコーディング タスクの GPT-4 Turbo と一致し、AI 機能の新しいベンチマークを設定します。

GPT-4 および GPT-4 ターボ モデル

これらのモデルは、Chat Completions API でのみ使用できます。

Model バージョンを参照して、OpenAI がモデル バージョンのアップグレードAzure処理する方法について説明します。 GPT-4 デプロイのモデル バージョン設定を表示および構成する方法については、モデルの 操作 に関するページを参照してください。

モデル ID 説明 最大要求数 (トークン) トレーニング データ (最大)
gpt-4o (2024-11-20)
GPT-4o (オムニ)
- 構造化された出力。
- テキストと画像処理。
- JSON モード。
- 並列関数呼び出し。
- 精度と応答性が向上しました。
- 英語のテキストおよびコーディング タスクと GPT-4 Turbo with Vision の同等性。
- 英語以外の言語とビジョン タスクでの優れたパフォーマンス。
- クリエイティブな文章力を強化しました。
入力: 128,000
出力: 16,384
2023 年 10 月
gpt-4o (2024-08-06)
GPT-4o (オムニ)
- 構造化された出力。
- テキストと画像処理。
- JSON モード。
- 並列関数呼び出し。
- 精度と応答性が向上しました。
- 英語のテキストおよびコーディング タスクと GPT-4 Turbo with Vision の同等性。
- 英語以外の言語とビジョン タスクでの優れたパフォーマンス。
入力: 128,000
出力: 16,384
2023 年 10 月
gpt-4o-mini (2024-07-18)
GPT-4o mini
- GPT-3.5ターボシリーズのモデルを置き換えるのに最適な、高速で安価な対応モデル。
- テキストと画像処理。
- JSON モード。
- 並列関数呼び出し。
入力: 128,000
出力: 16,384
2023 年 10 月
gpt-4o (2024-05-13)
GPT-4o (オムニ)
- テキストと画像処理。
- JSON モード。
- 並列関数呼び出し。
- 精度と応答性が向上しました。
- 英語のテキストおよびコーディング タスクと GPT-4 Turbo with Vision の同等性。
- 英語以外の言語とビジョン タスクでの優れたパフォーマンス。
入力: 128,000
出力: 4,096
2023 年 10 月
gpt-4 (turbo-2024-04-09)
GPT-4 ターボ ウィズ ビジョン
新しい一般提供モデル。
- 以前のすべての GPT-4 プレビュー モデル (vision-preview1106-Preview0125-Preview) の交換。
- 現在、機能の可用性は、入力方法とデプロイの種類によって異なります。
入力: 128,000
出力: 4,096
2023 年 12 月

注意

運用環境ではプレビュー モデルを使用しないことをお勧めします。 プレビュー モデルのすべてのデプロイを、将来のプレビュー バージョンまたは最新の安定した一般公開バージョンにアップグレードします。 プレビューが指定されているモデルは、OpenAI モデルのライフサイクルAzure標準に従っていません。

埋め込み

text-embedding-3-large は、最新かつ最も能力の高い埋め込みモデルです。 埋め込みモデル間でアップグレードすることはできません。 text-embedding-ada-002を使用してtext-embedding-3-largeに移行するには、新しい埋め込みを生成する必要があります。

  • text-embedding-3-large
  • text-embedding-3-small
  • text-embedding-ada-002

OpenAI レポートでは、テストでは、大規模および小規模の第 3 世代埋め込みモデルの両方が 、MIRACL ベンチマークを使用して平均多言語取得パフォーマンスを向上することを示しています。 MTEB ベンチマークを使用して、英語のタスクのパフォーマンスを維持します。

評価ベンチマーク text-embedding-ada-002 text-embedding-3-small text-embedding-3-large
MIRACL 平均 31.4 44.0 54.9
MTEB 平均 61.0 62.3 64.6

第 3 世代埋め込みモデルでは、新しい dimensions パラメーターを使用して埋め込みのサイズを縮小できます。 通常、埋め込みサイズが大きいほど、コンピューティング、メモリ、ストレージの観点から見るとコストが高くなります。 ディメンションの数を調整できる場合は、全体的なコストとパフォーマンスをより詳細に制御できます。 dimensions パラメーターは、OpenAI 1.x Python ライブラリのすべてのバージョンでサポートされているわけではありません。 このパラメーターを利用するには、最新バージョンの pip install openai --upgrade にアップグレードすることをお勧めします。

OpenAI の MTEB ベンチマーク テストでは、第 3 世代モデルのディメンションが text-embeddings-ada-002 の 1,536 次元より小さい場合でも、パフォーマンスは若干向上していることがわかりました。

イメージ生成モデル

画像生成モデルは、ユーザーが提供するテキスト プロンプトから画像を生成します。 GPT-image-1 シリーズ モデルには、 gpt-image-1gpt-image-1-mini、および gpt-image-1.5が含まれます。

リージョンの可用性

モデル 地域
gpt-image-1 モデルのを参照してください
gpt-image-1-mini モデルのを参照してください
gpt-image-1.5 モデルのを参照してください

ビデオ生成モデル

空は、テキスト命令から現実的で想像力豊かなビデオ シーンを作成できる OpenAI の AI モデルです。 ソラはプレビュー段階です。

リージョンの可用性

モデル 地域
sora モデルのを参照してください
sora-2 モデルのを参照してください

オーディオ モデル

Azure OpenAI のオーディオ モデルは、realtimecompletions、および audio API を介して使用できます。

GPT-4o オーディオ モデル

GPT-4o オーディオ モデルは GPT-4o モデル ファミリの一部であり、低待機時間、 音声入力、音声アウト会話、 またはオーディオ生成をサポートします。

注意

運用環境でプレビュー モデルを使用することはお勧めしません。 プレビュー モデルのすべてのデプロイを、将来のプレビュー バージョンまたは最新の安定した一般公開バージョンにアップグレードします。 プレビューが指定されているモデルは、OpenAI モデルのライフサイクルAzure標準に従っていません。

最大要求トークンとトレーニング データの詳細については、次の表を参照してください。

モデル ID 説明 最大要求数 (トークン) トレーニング データ (最大)
gpt-4o-mini-audio-preview (2024-12-17)
プレビュー
オーディオおよびテキスト生成用のオーディオ モデル。 入力: 128,000
出力: 16,384
2023 年 9 月
gpt-4o-audio-preview (2024-12-17) オーディオおよびテキスト生成用のオーディオ モデル。 入力: 128,000
出力: 16,384
2023 年 9 月
gpt-4o-realtime-preview (2025-06-03) リアルタイムオーディオ処理のためのオーディオモデル。 入力: 32,000
出力: 4,096
2023 年 10 月
gpt-4o-realtime-preview (2024-12-17) リアルタイムオーディオ処理のためのオーディオモデル。 入力: 16,000
出力: 4,096
2023 年 10 月
gpt-4o-mini-realtime-preview (2024-12-17)
プレビュー
リアルタイムオーディオ処理のためのオーディオモデル。 入力: 128,000
出力: 4,096
2023 年 10 月
gpt-audio(2025年8月28日)
gpt-audio-mini(2025年10月6日)
オーディオおよびテキスト生成用のオーディオ モデル。 入力: 128,00
出力: 16,384
2023 年 10 月
gpt-realtime (2025年08月28日) (GA)
gpt-realtime-mini (2025-10-06)
gpt-realtime-mini (2025-12-15)
リアルタイムオーディオ処理のためのオーディオモデル。 入力: 32,00
出力: 4,096
2023 年 10 月
gpt-audio-1.5 (2026-02-23) オーディオおよびテキスト生成用のオーディオ モデル。 入力: 128,00
出力: 16,384
2024 年 9 月
gpt-realtime-1.5 (2026-02-23) リアルタイムオーディオ処理のためのオーディオモデル。 入力: 32,00
出力: 4,096
2024 年 9 月

すべてのリージョンでの GPT-4o オーディオ モデルの可用性を比較するには、 モデルの表を参照してください。

Audio API

/audio API を介したオーディオ モデルは、音声テキスト変換、翻訳、テキスト読み上げに使用できます。

音声テキスト変換モデル

モデル ID 説明 最大要求数 (オーディオ ファイル サイズ)
whisper 汎用音声認識モデル。 25 MB
gpt-4o-transcribe (2025-03-20)
プレビュー
GPT-4o を搭載した音声テキスト変換モデル。 25 MB
gpt-4o-mini-transcribe (2025-03-20)
プレビュー
GPT-4o ミニを搭載した音声テキスト変換モデル。 25 MB
gpt-4o-transcribe-diarize (2025-10-15)
プレビュー
自動音声認識を使用した音声テキスト変換モデル。 25 MB
gpt-4o-mini-transcribe (2025-12-15)
プレビュー
自動音声認識を使用した音声テキスト変換モデル。 文字起こしの精度と堅牢性が向上しました。 25 MB

音声翻訳モデル

モデル ID 説明 最大要求数 (オーディオ ファイル サイズ)
whisper 汎用音声認識モデル。 25 MB

テキスト読み上げモデル (プレビュー)

モデル ID 説明
tts
プレビュー
速度に合わせて最適化されたテキスト読み上げモデル。
tts-hd
プレビュー
品質に最適化されたテキスト読み上げモデル。
gpt-4o-mini-tts (2025-03-20) GPT-4o ミニを搭載したテキスト読み上げモデル。

特定のスタイルまたはトーンで話すように音声をガイドできます。
gpt-4o-mini-tts (2025-12-15) GPT-4o ミニを搭載したテキスト読み上げモデル。

特定のスタイルまたはトーンで話すように音声をガイドできます。

モデルの概要テーブルとリージョンの可用性

デプロイの種類別のモデル

Azure OpenAI は、ビジネスパターンと使用パターンに合ったホスティング構造に関する選択肢を顧客に提供します。 このサービスには、主に次の 2 種類のデプロイが用意されています。

  • Standard: グローバルデプロイオプションがあり、トラフィックをグローバルにルーティングしてスループットを向上させます。
  • プロビジョニング済み: また、グローバル デプロイ オプションを使用して、プロビジョニングされたスループット ユニットをグローバル インフラストラクチャ全体Azure購入してデプロイできます。

すべてのデプロイでまったく同じ推論操作を実行できますが、課金、スケール、パフォーマンスは大きく異なります。 OpenAI デプロイの種類Azureの詳細については、デプロイの種類に関するガイドを参照してください。

グローバル標準モデルの可用性

地域 gpt-5.52026-04-24 gpt-image-22026-04-21 gpt-5.4-mini2026-03-17 gpt-5.4-nano2026-03-17 gpt-5.42026-03-05 gpt-5.4-pro, 2026-03-05 gpt-5.3-chat, 2026-03-03 gpt-5.3-codex, 2026-02-24 gpt-audio-1.52026-02-23 gpt-realtime-1.5,2026-02-23 gpt-5.2-chat, 2026-02-10 gpt-5.2-chat, 2025-12-11 gpt-5.2-codex,2026-01-14 gpt-image-1.52025-12-16 gpt-4o-mini-transcribe, 2025-12-15 gpt-4o-mini-transcribe, 2025-03-20 gpt-4o-mini-tts,2025-12-15 gpt-4o-mini-tts2025-03-20 gpt-audio-mini2025-12-15 gpt-audio-mini2025-10-06 gpt-realtime-mini,2025-12-15 gpt-realtime-mini2025-10-06 gpt-5.22025-12-11 gpt-5.1-codex-max2025-12-04 model-router, 2025-11-18 model-router, 2025-08-07 model-router, 2025-05-19 gpt-5.12025-11-13 gpt-5.1-chat,2025-11-13 gpt-5.1-codex2025-11-13 gpt-5.1-codex-mini, 2025-11-13 gpt-4o-transcribe-diarize, 2025-10-15 gpt-5-pro2025-10-06 gpt-image-1-mini2025-10-06 ora-22025-10-06 gpt-5-chat, 2025-10-03 gpt-5-chat, 2025-08-07 gpt-5-codex2025-09-15 gpt-audio2025-08-28 gpt-realtime, 2025-08-28 gpt-52025-08-07 gpt-5-mini2025-08-07 gpt-5-nano2025-08-07 o3-deep-research, 2025-06-26 o3-pro2025-06-10 codex-mini2025-05-16 o32025-04-16 o4-mini2025-04-16 gpt-image-12025-04-15 gpt-4.12025-04-14 gpt-4.1-mini2025-04-14 gpt-4.1-nano2025-04-14 gpt-4o-transcribe, 2025-03-20 computer-use-preview2025-03-11 computer-use-preview2025-02-11 o3-mini2025-01-31 o12024-12-17 gpt-4o,2024-11-20 gpt-4o2024-08-06 gpt-4o,2024-05-13 gpt-4o-mini2024-07-18 text-embedding-ada-002, 2 text-embedding-3-large, 1 text-embedding-3-small, 1
australiaeast - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
brazilsouth - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
canadacentral - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
canadaeast - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
centralus - - - - - - - - - - - - - - - - -
eastus - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
eastus2 - -
francecentral - - - - - - - - - - - - - - - - - - - - - -
germanywestcentral - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
italynorth - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
japaneast - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
koreacentral - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
northcentralus - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
norwayeast - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
polandcentral - - - - - - - - - - - - - - - - - - - - - - - -
southafricanorth - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
southcentralus - - - - - - - - - - - - - - - - - - - - - - - - - - - -
southeastasia - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
southindia - - - - - - - - - - - - - - - - - - - -
spaincentral - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
swedencentral - - - -
switzerlandnorth - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
switzerlandwest - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
uaenorth - - - - - - - - - - - - - - - - - - - - - - - - - -
uksouth - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
westeurope - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
westus - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
westus3 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

メモ

o3-deep-research は現在、Foundry Agent Service でのみ使用できます。 詳細については、 ディープ リサーチ ツールのガイダンスを参照してください。

この表には、リージョンの可用性情報の微調整は含まれていません。 この情報については、 微調整のセクション を参照してください。

埋め込みモデル

これらのモデルは、埋め込み API 要求でのみ使用できます。

メモ

text-embedding-3-large は、最新かつ最も能力の高い埋め込みモデルです。 埋め込みモデル間でアップグレードすることはできません。 text-embedding-ada-002を使用してtext-embedding-3-largeに移行するには、新しい埋め込みを生成する必要があります。

モデル ID 最大要求数 (トークン) 出力ディメンション トレーニング データ (最大)
text-embedding-ada-002 (バージョン 2) 8,192 1,536 2021 年 9 月
text-embedding-ada-002 (バージョン 1) 2,046 1,536 2021 年 9 月
text-embedding-3-large 8,192 3,072 2021 年 9 月
text-embedding-3-small 8,192 1,536 2021 年 9 月

メモ

埋め込み用の入力の配列を送信する場合、埋め込みエンドポイントの呼び出しあたりの配列内の入力項目の最大数は 2,048 です。

イメージ生成モデル

モデル ID 最大要求数 (文字)
gpt-image-1 4,000
gpt-image-1-mini 4,000
gpt-image-1.5 4,000

ビデオ生成モデル

モデル ID 最大要求数 (文字)
そら 4,000

モデルの微調整

微調整では、次のモデルがサポートされています。

モデル ID 標準リージョン グローバル Developer メソッド ステータス モダリティ
gpt-4o-mini
(2024-07-18)
米国中北部
スウェーデン中部
Sft GA テキストからテキストへ
gpt-4o
(2024-08-06)
米国東部 2
米国中北部
スウェーデン中部
SFT、DPO GA テキストと視覚テキスト
gpt-4.1
(2025-04-14)
米国中北部
スウェーデン中部
SFT、DPO GA テキストと視覚テキスト
gpt-4.1-mini
(2025-04-14)
米国中北部
スウェーデン中部
SFT、DPO GA テキストからテキストへ
gpt-4.1-nano (2025-04-14) 米国中北部
スウェーデン中部
SFT、DPO GA テキストからテキストへ
o4-mini
(2025-04-16)
米国東部 2
スウェーデン中部
Rft GA テキストからテキストへ
gpt-5
(2025-08-07)
米国中北部
スウェーデン中部
Rft プライベート プレビュー テキストからテキストへ
Ministral-3B
(2411)
サポートされていません Sft パブリック プレビュー テキストからテキストへ
Qwen-32B サポートされていません Sft パブリック プレビュー テキストからテキストへ
Llama-3.3-70B-Instruct サポートされていません Sft パブリック プレビュー テキストからテキストへ
gpt-oss-20b サポートされていません Sft パブリック プレビュー テキストからテキストへ

または、以前に微調整したモデルを、 base-model.ft-{jobid}形式で微調整することもできます。

メモ

オープン ソース モデル (Ministral-3B、Qwen-32B、Llama-3.3-70B-Instruct、gpt-oss-20b) は、Foundry リソースと新しい Foundry UI でのみサポートされます。

メモ

グローバル トレーニングでは、トークンごとに より手頃な価格 のトレーニングが提供されますが、 データ所在地は提供されません。 現在、次のリージョンの Foundry リソースで使用できます。

  • オーストラリア東部
  • ブラジル南部
  • カナダ中部
  • カナダ東部
  • 米国東部
  • 米国東部 2
  • フランス中部
  • ドイツ中西部
  • イタリア北部
  • 東日本 (ビジョンサポートなし)
  • 韓国中部
  • 米国中北部
  • ノルウェー東部
  • ポーランド中部 (4.1 ナノサポートなし)
  • 東南アジア
  • 南アフリカ北部
  • 米国中南部
  • インド南部
  • スペイン中部
  • スウェーデン中部
  • スイス西部
  • スイス北部
  • 英国南部
  • 西ヨーロッパ
  • 米国西部
  • 米国西部 3

アシスタント (プレビュー)

アシスタントの場合は、サポートされているモデルとサポートされているリージョンの組み合わせが必要です。 特定のツールと機能には、最新のモデルが必要です。 Assistants API、SDK、Foundry では、次のモデルを使用できます。 次の表は、標準のデプロイ用です。 プロビジョニングされたスループット ユニットの可用性の詳細については、「 プロビジョニングされたスループット」を参照してください。 一覧表示されているモデルとリージョンは、Assistants v1 と v2 の両方で使用できます。 グローバル標準モデルは、次のリージョンでサポートされている場合に使用できます。

地域 gpt-4o,2024-05-13 gpt-4o、2024-08-06 gpt-4o-mini、2024-07-18 gpt-4、0613 gpt-4、1106-Preview gpt-4、0125-Preview gpt-4、turbo-2024-04-09 gpt-4-32k、0613 gpt-35-turbo, 0613 gpt-35-turbo,1106 gpt-35-turbo,0125 gpt-35-turbo-16k, 0613
australiaeast - - - - -
eastus - - - -
eastus2 - - - -
francecentral - - - - - -
japaneast - - - - - - - - -
norwayeast - - - - - - - - - - -
southindia - - - - - - - - -
swedencentral - -
uksouth - - - - - -
westus - - - - -
westus3 - - - - - -

モデルの提供終了

モデルの提供終了に関する最新情報については、モデル提供 終了ガイドを参照してください。

Azureが直接販売するブラック フォレスト ラボ モデル

Black Forest Labs (BFL) FLUX モデルを使用すると、最先端の画像生成を Microsoft Foundry に取り込み、テキスト プロンプトや参照画像から高品質の画像を生成および編集できます。 FLUX モデルでは、テキストからイメージへの生成、複数参照イメージの編集、コンテキスト内の生成と編集など、さまざまな機能がサポートされています。

これらのモデルは、BFL サービス プロバイダー API、 およびイメージ/世代およびイメージ/編集エンドポイントを使用して実行できます。

Foundry で FLUX モデルを使用するには、「 Foundryを参照してください。

モデル 型と API エンドポイント 機能 デプロイの種類 (リージョンの可用性)
FLUX.2-flex
プレビュー
イメージの生成
- BFL サービス プロバイダー API: <resource-name>/providers/blackforestlabs/v1/flux-2-flex
- 入力: テキストと画像 (32,000 トークンと最大 10 個の画像i)
- 出力: 1 つの画像
- ツールの呼び出し: いいえ
- 応答形式: 画像 (PNG と JPG)
- 主な機能: きめ細かい制御;最大 10 個のイメージに対するマルチリファレンス サポート
- その他のパラメーター:
guidance: プロンプトの後に出力がどれだけ近づくかを制御します。 最小: 1.5、最大: 10、既定値: 4.5。 より高い = より近いプロンプトの準拠。
steps: 推論ステップの数。 最大: 50、既定値: 50。 高い = より詳細、遅い。
- グローバル標準 (すべてのリージョン)
FLUX.2-pro
プレビュー
イメージの生成
- BFL サービス プロバイダー API: <resource-name>/providers/blackforestlabs/v1/flux-2-pro
- 入力: テキストと画像 (32,000 トークンと最大 8 つの画像ii)
- 出力: 1 つの画像
- ツールの呼び出し: いいえ
- 応答形式: 画像 (PNG と JPG)
- 主な機能: 最大 8 つのイメージに対するマルチリファレンス サポート。より実世界の知識に根付いている。出力の柔軟性が向上します。パフォーマンスの向上
- 追加パラメーター:(プロバイダー固有の API のみ) すべてのパラメーターをサポートします。
- グローバル標準 (すべてのリージョン)
FLUX.1-Kontext-pro
プレビュー
イメージの生成
- Image API: https://<resource-name>/openai/deployments/{deployment-id}/images/generations
そして
https://<resource-name>/openai/deployments/{deployment-id}/images/edits

- BFL サービス プロバイダー API: <resource-name>/providers/blackforestlabs/v1/flux-kontext-pro?api-version=preview
- 入力: テキストと画像 (5,000 トークンと 1 つの画像)
- 出力: 1 つの画像
- ツールの呼び出し: いいえ
- 応答形式: 画像 (PNG と JPG)
- 主な機能: 文字の一貫性、高度な編集
- 追加パラメーター:(プロバイダー固有の API のみ)seedaspect ratioinput_imageprompt_unsamplingsafety_toleranceoutput_format
- グローバル標準 (すべてのリージョン)
FLUX-1.1-pro
プレビュー
イメージの生成
- Image API: https://<resource-name>/openai/deployments/{deployment-id}/images/generations

- BFL サービス プロバイダー API: <resource-name>/providers/blackforestlabs/v1/flux-pro-1.1?api-version=preview
- 入力: テキスト (5,000 トークンと 1 つの画像)
- 出力: 1 つの画像
- ツールの呼び出し: いいえ
- 応答形式: 画像 (PNG と JPG)
- 主な機能: 迅速な推論速度、強力な迅速な準拠、競争力のある価格、スケーラブルな世代
- 追加パラメーター:(プロバイダー固有の API のみ)widthheightprompt_unsamplingseedsafety_toleranceoutput_format
- グローバル標準 (すべてのリージョン)

i,ii 複数の 参照イメージ のサポートは、API を使用して FLUX.2 [pro] (プレビュー) と FLUX.2 [flex] (プレビュー) で利用できますが、プレイグラウンド ではサポートされていません

Azureが直接販売するコヘレモデル

Cohere のモデル ファミリには、チャットの完了、rerank/text 分類、埋め込みなど、さまざまなユース ケースに最適化されたさまざまなモデルが含まれています。 Cohere モデルは、推論、要約、質問の回答など、さまざまなユース ケース向けに最適化されています。

モデル タイプ 機能 デプロイの種類 (リージョンの可用性)
Cohere-rerank-v4.0-pro テキスト分類 (rerank) - 入力: テキスト
- 出力: テキスト
- 言語:enfresitdept-brjazh-cnarvihiruid、および nl
- ツールの呼び出し: いいえ
- 応答形式: Json
- グローバル標準 (すべてのリージョン)
- マネージド コンピューティング
Cohere-rerank-v4.0-fast テキスト分類 (rerank) - 入力: テキスト
- 出力: テキスト
- 言語:enfresitdept-brjazh-cnarvihiruid、および nl
- ツールの呼び出し: いいえ
- 応答形式: Json
- グローバル標準 (すべてのリージョン)
- マネージド コンピューティング
Cohere-command-a chat-completion - 入力: テキスト (131,072 トークン)
- 出力: テキスト (8,182 トークン)
- 言語:enfresitdept-brjakozh-cn、および ar
- ツールの呼び出し: はい
- 応答形式: テキスト、JSON
- グローバル標準 (すべてのリージョン)
embed-v-4-0 埋め込み - 入力: テキスト (512 トークン) と画像 (2MM ピクセル)
- 出力: ベクター (256、512、1024、1536 dim)。
- 言語:enfresitdept-brjakozh-cn、および ar
- グローバル標準 (すべてのリージョン)

Azureが直接販売する DeepSeek モデル

DeepSeek のモデル ファミリには、いくつかの推論モデルが含まれています。これは、言語、科学的推論、コーディング タスクなど、ステップバイステップのトレーニング プロセスを使用してタスクを推論することに優れています。

モデル タイプ 機能 デプロイの種類 (リージョンの可用性)
DeepSeek-V3.2-Speciale
プレビュー
chat-completion
(推論コンテンツあり)
- 入力: テキスト (128,000 トークン)
- 出力: テキスト (128,000 トークン)
- Languages:en そして zh
- ツールの呼び出し: いいえ
- 応答形式: テキスト、JSON
- グローバル標準 (すべてのリージョン)
DeepSeek-V3.2
プレビュー
chat-completion
(推論コンテンツあり)
- 入力: テキスト (128,000 トークン)
- 出力: テキスト (128,000 トークン)
- Languages:en そして zh
- ツールの呼び出し: いいえ
- 応答形式: テキスト、JSON
- グローバル標準 (すべてのリージョン)
DeepSeek-V3.1
プレビュー
chat-completion
(推論コンテンツあり)
- 入力: テキスト (131,072 トークン)
- 出力: テキスト (131,072 トークン)
- Languages:en そして zh
- ツールの呼び出し: はい
- 応答形式: テキスト、JSON
- グローバル標準 (すべてのリージョン)
DeepSeek-R1-0528
プレビュー
chat-completion
(推論コンテンツあり)
- 入力: テキスト (163,840 トークン)
- 出力: テキスト (163,840 トークン)
- Languages:en そして zh
- ツールの呼び出し: いいえ
- 応答形式: テキスト
- グローバル標準 (すべてのリージョン)
- グローバル プロビジョニング済み (すべてのリージョン)
DeepSeek-V3-0324
プレビュー
chat-completion - 入力: テキスト (131,072 トークン)
- 出力: テキスト (131,072 トークン)
- Languages:en そして zh
- ツールの呼び出し: はい
- 応答形式: テキスト、JSON
- グローバル標準 (すべてのリージョン)
- グローバル プロビジョニング済み (すべてのリージョン)
DeepSeek-R1 chat-completion
(推論コンテンツあり)
- 入力: テキスト (163,840 トークン)
- 出力: テキスト (163,840 トークン)
- Languages:en そして zh
- ツールの呼び出し: いいえ
- 応答形式: テキスト
- グローバル標準 (すべてのリージョン)
- グローバル プロビジョニング済み (すべてのリージョン)

Azureが直接販売するメタ モデル

Meta Llama のモデルとツールは、事前トレーニングおよび微調整された生成 AI テキストと画像推論モデルのコレクションです。 メタ モデルのスケール範囲は次のとおりです。

  • 1B や 3B ベースなどの小さな言語モデル (SLB) と、デバイス上およびエッジ推論用のモデルに指示する
  • 7B、8B、70B の基本モデルや指示モデルなどの中規模の大規模言語モデル (LLM)
  • Meta Llama 3.1-405B などの高パフォーマンス モデルは、合成データの生成と蒸留のユース ケースに対して指示します。
モデル タイプ 機能 デプロイの種類 (リージョンの可用性)
Llama-4-Maverick-17B-128E-Instruct-FP8
プレビュー
chat-completion - 入力: テキストと画像 (1M トークン)
- 出力: テキスト (1M トークン)
- 言語:arenfrdehiiditptestlth、および vi
- ツールの呼び出し: いいえ
- 応答形式: テキスト
- グローバル標準 (すべてのリージョン)
Llama-3.3-70B-Instruct
プレビュー
chat-completion - 入力: テキスト (128,000 トークン)
- 出力: テキスト (8,192 トークン)
- 言語:endefritpthies、および th
- ツールの呼び出し: いいえ
- 応答形式: テキスト
- グローバル標準 (すべてのリージョン)
- グローバル プロビジョニング済み (すべてのリージョン)

パートナーやコミュニティからいくつかのメタ モデルも利用できます。

Azureが直接販売するMicrosoftモデル

Microsoftモデルには、モデル ルーター、MAI モデル、Phi モデル、医療 AI モデルなど、さまざまなモデル グループが含まれます。 パートナーやコミュニティからいくつかのMicrosoftモデルも利用できます。

Foundry で および テキストからイメージへの生成モデルを操作するには、「 Foundry

モデル タイプ 機能 デプロイの種類 (リージョンの可用性)
MAI-Image-2e
プレビュー
テキストからイメージへ。 詳細については、 API エンドポイント を参照してください。 - 入力: テキスト
- 出力: 1 つの画像
- コンテキストの長さ: 32,000 トークン
- ツールの呼び出し: いいえ
- 応答形式: 画像 (PNG)
- 言語:en
- 主な機能: 高品質のテキストから画像への生成。一貫した視覚的構造を持つフォトリアリスティック画像合成;製品の画像、マーケティングビジュアル、ブランドアセット、商用クリエイティブワークフローに最適です。
- Parameters:width, height, prompt
最小 768×768 ピクセル。最大合計ピクセル数 1,048,576 (1024×1024 に相当)。 ピクセル数の合計が制限内に留まるようにする限り、どちらの次元も 1024 を超えることができます (例: 768×1365)。
- グローバル標準 (米国中西部、米国東部、米国西部、西ヨーロッパ、スウェーデン中部、インド南部)
MAI-Image-2
プレビュー
テキストからイメージへ。 詳細については、 API エンドポイント を参照してください。 - 入力: テキスト
- 出力: 1 つの画像
- コンテキストの長さ: 32,000 トークン
- ツールの呼び出し: いいえ
- 応答形式: 画像 (PNG)
- 言語:en
- 主な機能: 高品質のテキストから画像への生成。一貫した視覚的構造を持つフォトリアリスティック画像合成;製品の画像、マーケティングビジュアル、ブランドアセット、商用クリエイティブワークフローに最適です。
- Parameters:width, height, prompt
最小 768×768 ピクセル。最大合計ピクセル数 1,048,576 (1024×1024 に相当)。 ピクセル数の合計が制限内に留まるようにする限り、どちらの次元も 1024 を超えることができます (例: 768×1365)。
- グローバル標準 (米国中西部、米国東部、米国西部、西ヨーロッパ、スウェーデン中部、インド南部)
model-router 1 chat-completion 詳細については、 モデル ルーターの概要に関するページを参照してください
- 入力: テキスト、画像
- 出力: テキスト (最大出力トークン数は2)
コンテキスト ウィンドウ: 200,0003
- 言語:en
- グローバル標準 (米国東部 2、スウェーデン中部)
- データ ゾーン標準4 (米国東部 2、スウェーデン中部)

1モデルルータバージョン2025-11-18。 以前のバージョン (2025-08-072025-05-19) も利用できます。

2つの最大出力トークンは、 モデル ルーターの基になるモデルによって異なります。 たとえば、32,768 (GPT-4.1 series)、100,000 (o4-mini)、128,000 (gpt-5 reasoning models)、16,384 (gpt-5-chat) などです。

3 大きな コンテキスト ウィンドウ は、モデル ルーターの基になるモデルの 一部 と互換性があります。 つまり、コンテキストが大きい API 呼び出しは、プロンプトがそのようなモデルのいずれかにルーティングされた場合にのみ成功します。 それ以外の場合、呼び出しは失敗します。

4Data Zone Standard モデル ルーターのデプロイの課金は、2025 年 11 月 1 日より前に開始されます。

Azureが直接販売するミストラルモデル

モデル タイプ 機能 デプロイの種類 (リージョンの可用性)
mistral-document-ai-2512 画像からテキストへ - 入力: 画像または PDF ページ (30 ページ、最大 30 MB PDF ファイル)
- 出力: テキスト
- 言語:en
- ツールの呼び出し: いいえ
- 応答形式: Text、JSON、Markdown
- グローバル標準 (すべてのリージョン)
- データ ゾーン標準 (米国および EU)
mistral-document-ai-2505
プレビュー
画像からテキストへ - 入力: 画像または PDF ページ (30 ページ、最大 30 MB PDF ファイル)
- 出力: テキスト
- 言語:en
- ツールの呼び出し: いいえ
- 応答形式: Text、JSON、Markdown
- グローバル標準 (すべてのリージョン)
- データ ゾーン標準 (米国および EU)
Mistral-Large-3
プレビュー
chat-completion - 入力: テキスト、画像
- 出力: テキスト
- 言語:enfrdeesitptnlzhjako、および ar
- ツールの呼び出し: はい
- 応答形式: テキスト、JSON
- グローバル標準 (すべてのリージョン)
- データ ゾーン標準 (米国および EU)

複数の Mistral モデルも パートナーやコミュニティから入手できます。

Azureが直接販売する Moonshot AI モデル

Moonshot AI モデルには、テキストと画像入力を受け入れるマルチモーダル推論モデル、キミ K2.5 (プレビュー) が含まれます。

モデル タイプ 機能 デプロイの種類 (リージョンの可用性)
Kimi-K2.5
プレビュー
chat-completion
(推論コンテンツあり)
- 入力: テキストと画像 (262,144 トークン)
- 出力: テキスト (262,144 トークン)
- Languages:en そして zh
- ツールの呼び出し: はい
- 応答形式: テキスト
- グローバル標準 (すべてのリージョン)

Foundry ポータルで、このモデル コレクションを参照してください。

Azureが直接販売するxAIモデル

Foundry Models の xAI の Grok モデルには、データ抽出、コーディング、テキスト要約、エージェント アプリケーションなどのエンタープライズ ユース ケース向けに設計された、推論モデルと非推論モデルの多様なセットが含まれています。

へのアクセスには登録が必要ですgrok-code-fast-1 (プレビュー) と grok-4

モデル タイプ 機能 デプロイの種類 (リージョンの可用性)
grok-4-20-reasoning
プレビュー
chat-completion - 入力: テキスト (262,000 トークン)
- 出力: テキスト (8,192 トークン)
- 言語:en
- ツールの呼び出し: はい
- 応答形式: テキスト
- グローバル標準 (すべてのリージョン)
grok-4-20-non-reasoning
プレビュー
chat-completion - 入力: テキスト (262,000 トークン)
- 出力: テキスト (8,192 トークン)
- 言語:en
- ツールの呼び出し: はい
- 応答形式: テキスト
- グローバル標準 (すべてのリージョン)
grok-4.1-fast-reasoning
プレビュー
chat-completion - 入力: テキスト、画像 (128,000 トークン)
- 出力: テキスト (128,000 トークン)
- 言語:en
- ツールの呼び出し: はい
- 応答形式: テキスト
- グローバル標準 (すべてのリージョン)
grok-4.1-fast-non-reasoning
プレビュー
chat-completion - 入力: テキスト、画像 (128,000 トークン)
- 出力: テキスト (128,000 トークン)
- 言語:en
- ツールの呼び出し: はい
- 応答形式: テキスト
- グローバル標準 (すべてのリージョン)
grok-4 chat-completion - 入力: テキスト (262,000 トークン)
- 出力: テキスト (8,192 トークン)
- 言語:en
- ツールの呼び出し: はい
- 応答形式: テキスト
- グローバル標準 (すべてのリージョン)
grok-code-fast-1
プレビュー
chat-completion - 入力: テキスト (256,000 トークン)
- 出力: テキスト (8,192 トークン)
- 言語:en
- ツールの呼び出し: はい
- 応答形式: テキスト
- グローバル標準 (すべてのリージョン)

デプロイの種類別にリージョンの可用性をモデル化する

Foundry Models では、ビジネスパターンと使用パターンに合ったホスティング構造を選択できます。 このサービスには、主に次の 2 種類のデプロイが用意されています。

  • Standard: グローバルデプロイオプションがあり、トラフィックをグローバルにルーティングしてスループットを向上させます。
  • Provisioned: グローバル デプロイ オプションもあり、グローバル インフラストラクチャ全体でプロビジョニング済みスループット ユニットAzure購入してデプロイできます。

すべてのデプロイで同じ推論操作が実行されますが、課金、スケール、パフォーマンスは異なります。 デプロイの種類の詳細については、「 Foundry モデルのデプロイの種類」を参照してください。

グローバル標準モデルの可用性

地域 FLUX.2-flex FLUX.2-pro FLUX.1-Kontext-pro FLUX-1.1-pro Cohere-rerank-v4.0-pro Cohere-rerank-v4.0-fast cohere-command-a embed-v-4-0 DeepSeek-V3.2-Speciale DeepSeek-V3.2 DeepSeek-V3.1 DeepSeek-R1-0528 DeepSeek-V3-0324 DeepSeek-R1 Llama-4-Maverick-17B-128E-Instruct-FP8 Llama-3.3-70B-Instruct MAI-Image-2 model-router mistral-document-ai-2512 mistral-document-ai-2505 Mistral-Large-3 キミ-K2.5 grok-4-1-fast-reasoning grok-4-1-fast-non-reasoning grok-4-fast-reasoning grok-4-fast-non-reasoning grok-3 grok-3-mini
australiaeast - -
brazilsouth - -
canadacentral - -
canadaeast - -
centralus - -
eastus -
eastus2 -
francecentral - -
germanywestcentral - -
italynorth - -
japaneast - -
japanwest - -
koreacentral - -
northcentralus - -
norwayeast - -
polandcentral - -
southafricanorth - -
southcentralus - -
southindia -
spaincentral - -
swedencentral
switzerlandnorth - -
switzerlandwest - -
uaenorth - -
uksouth - -
westcentralus -
westeurope -
westus -
westus2 - -
westus3 - -