次の方法で共有


パートナーとコミュニティからの Foundry Models

この記事では、 Microsoft Foundry (クラシック) ポータルを参照します。

🔄新しいポータルを使用している場合は、Microsoft Foundry (新しい) ドキュメントに切り替えます

この記事では、 Microsoft Foundry (新しい) ポータルを参照します。

この記事では、パートナーとコミュニティから選択した Microsoft Foundry モデルの機能を示します。 ほとんどの Foundry モデル プロバイダーは、信頼できるサード パーティの組織、パートナー、リサーチ ラボ、コミュニティ共同作成者です。 Foundry に表示されるモデルの選択は、使用する プロジェクトの種類 によって異なります。 パートナーやコミュニティからの Foundry モデルの属性の詳細については、「 Foundry モデルの探索」を参照してください。

Azure が直接販売しているモデルの一覧については、「Azure 直販の Foundry モデル」をご覧ください。

Foundry Agent Service でサポートされている Azure OpenAI モデルの一覧については、「 エージェント サービスでサポートされるモデル」を参照してください。

Anthropic

Anthropicの主力製品は、コーディング、エージェント、財務分析、研究、オフィスタスクなどの複雑なタスクのために世界中の大手企業や何百万人ものユーザーから信頼されているフロンティアAIモデルであるクロードです。 クロードは高い安全基準を維持している間例外的な性能を提供する。

Foundry で Claude モデルを使用するには、「 Microsoft Foundry で Claude モデルをデプロイして使用する」を参照してください。

Important

Microsoft Foundry で Claude モデルを使用するには、Anthropic が購入用のモデルを提供する 国または地域 の課金アカウントを持つ有料の Azure サブスクリプションが必要です。 現在制限されている有料サブスクリプションの種類は、クラウド ソリューション プロバイダー (CSP)、Azure クレジットを持つスポンサー付きアカウント、シンガポールと韓国のエンタープライズ アカウント、および Microsoft アカウントです。

サブスクリプション関連の一般的なエラーの一覧については、「 一般的なエラー メッセージと解決策」を参照してください。

モデル タイプ 能力 プロジェクトの種類
claude-opus-4-6

(プレビュー)
Messages - 入力: テキスト、画像、コード
- 出力: テキスト、画像、コード (最大 128,000 トークン)
- コンテキスト ウィンドウ: 1,000,000 (ベータ)
- 言語:enfrarzhjakoeshi
- ツールの呼び出し: はい (ファイル検索とコード実行)
- 応答形式: さまざまな形式のテキスト (prose、lists、Markdown テーブル、JSON、HTML、さまざまなプログラミング言語のコードなど)
Foundry、ハブベース
claude-opus-4-5

(プレビュー)
Messages - 入力: テキスト、画像、コード
- 出力: テキスト (最大 64,000 トークン)
- コンテキスト ウィンドウ: 200,000
- 言語:enfrarzhjakoeshi
- ツールの呼び出し: はい (ファイル検索とコード実行)
- 応答形式: さまざまな形式のテキスト (prose、lists、Markdown テーブル、JSON、HTML、さまざまなプログラミング言語のコードなど)
Foundry、ハブベース
claude-opus-4-1

(プレビュー)
Messages - 入力: テキスト、画像、コード
- 出力: テキスト (最大 32,000 トークン)
- コンテキスト ウィンドウ: 200,000
- 言語:enfrarzhjakoeshi
- ツールの呼び出し: はい (ファイル検索とコード実行)
- 応答形式: さまざまな形式のテキスト (prose、lists、Markdown テーブル、JSON、HTML、さまざまなプログラミング言語のコードなど)
Foundry、ハブベース
claude-sonnet-4-6

(プレビュー)
Messages - 入力: テキスト、画像、コード
- 出力: テキスト、画像、コード (最大 128,000 トークン)
- コンテキスト ウィンドウ: 1,000,000 (ベータ)
- 言語:enfrarzhjakoeshi
- ツールの呼び出し: はい (ファイル検索とコード実行)
- 応答形式: さまざまな形式のテキスト (prose、lists、Markdown テーブル、JSON、HTML、さまざまなプログラミング言語のコードなど)
Foundry、ハブベース
claude-sonnet-4-5

(プレビュー)
Messages - 入力: テキスト、画像、コード
- 出力: テキスト (最大 64,000 トークン)
- コンテキスト ウィンドウ: 200,000
- 言語:enfrarzhjakoeshi
- ツールの呼び出し: はい (ファイル検索とコード実行)
- 応答形式: さまざまな形式のテキスト (prose、lists、Markdown テーブル、JSON、HTML、さまざまなプログラミング言語のコードなど)
Foundry、ハブベース
claude-haiku-4-5

(プレビュー)
Messages - 入力: テキストと画像
- 出力: テキスト (最大 64,000 トークン)
- コンテキスト ウィンドウ: 200,000
- 言語:enfrarzhjakoeshi
- ツールの呼び出し: はい (ファイル検索とコード実行)
- 応答形式: さまざまな形式のテキスト (prose、lists、Markdown テーブル、JSON、HTML、さまざまなプログラミング言語のコードなど)
Foundry、ハブベース
モデル タイプ 能力
claude-opus-4-6

(プレビュー)
Messages - 入力: テキスト、画像、コード
- 出力: テキスト、画像、コード (最大 128,000 トークン)
- コンテキスト ウィンドウ: 1,000,000 (ベータ)
- 言語:enfrarzhjakoeshi
- ツールの呼び出し: はい (ファイル検索とコード実行)
- 応答形式: さまざまな形式のテキスト (prose、lists、Markdown テーブル、JSON、HTML、さまざまなプログラミング言語のコードなど)
claude-opus-4-5

(プレビュー)
Messages - 入力: テキスト、画像、コード
- 出力: テキスト (最大 64,000 トークン)
- コンテキスト ウィンドウ: 200,000
- 言語:enfrarzhjakoeshi
- ツールの呼び出し: はい (ファイル検索とコード実行)
- 応答形式: さまざまな形式のテキスト (prose、lists、Markdown テーブル、JSON、HTML、さまざまなプログラミング言語のコードなど)
claude-opus-4-1

(プレビュー)
Messages - 入力: テキスト、画像、コード
- 出力: テキスト (最大 32,000 トークン)
- コンテキスト ウィンドウ: 200,000
- 言語:enfrarzhjakoeshi
- ツールの呼び出し: はい (ファイル検索とコード実行)
- 応答形式: さまざまな形式のテキスト (prose、lists、Markdown テーブル、JSON、HTML、さまざまなプログラミング言語のコードなど)
claude-sonnet-4-6

(プレビュー)
Messages - 入力: テキスト、画像、コード
- 出力: テキスト、画像、コード (最大 128,000 トークン)
- コンテキスト ウィンドウ: 1,000,000 (ベータ)
- 言語:enfrarzhjakoeshi
- ツールの呼び出し: はい (ファイル検索とコード実行)
- 応答形式: さまざまな形式のテキスト (prose、lists、Markdown テーブル、JSON、HTML、さまざまなプログラミング言語のコードなど)
claude-sonnet-4-5

(プレビュー)
Messages - 入力: テキスト、画像、コード
- 出力: テキスト (最大 64,000 トークン)
- コンテキスト ウィンドウ: 200,000
- 言語:enfrarzhjakoeshi
- ツールの呼び出し: はい (ファイル検索とコード実行)
- 応答形式: さまざまな形式のテキスト (prose、lists、Markdown テーブル、JSON、HTML、さまざまなプログラミング言語のコードなど)
claude-haiku-4-5

(プレビュー)
Messages - 入力: テキストと画像
- 出力: テキスト (最大 64,000 トークン)
- コンテキスト ウィンドウ: 200,000
- 言語:enfrarzhjakoeshi
- ツールの呼び出し: はい (ファイル検索とコード実行)
- 応答形式: さまざまな形式のテキスト (prose、lists、Markdown テーブル、JSON、HTML、さまざまなプログラミング言語のコードなど)

Foundry ポータルの Anthropic モデルを参照してください。

Cohere

Cohere のモデル ファミリには、チャット入力候補、埋め込みなど、さまざまなユース ケースに最適化されたモデルがあります。 Cohere のモデルは、推論、要約、質問応答など、さまざまなユース ケースに最適化されています。

Foundry に Cohere モデルをデプロイするには、Foundry ポータルで Microsoft Foundry モデルをデプロイするを参照してください。

モデル タイプ 能力 プロジェクトの種類
Cohere-command-r-plus-08-2024 chat-completion - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- 言語:enfresitdept-brjakozh-cn、および ar
- ツールの呼び出し: はい
- 応答形式: テキスト、JSON
Foundry、ハブベース
Cohere-command-r-08-2024 chat-completion - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- 言語:enfresitdept-brjakozh-cn、および ar
- ツールの呼び出し: はい
- 応答形式: テキスト、JSON
Foundry、ハブベース
Cohere-embed-v3-english embeddings - 入力: テキストと画像 (512 トークン)
- アウトプット: ベクター (1024 dim)。
- 言語:en
Foundry、ハブベース
Cohere-embed-v3-multilingual embeddings - 入力: テキスト (512 トークン)
- アウトプット: ベクター (1024 dim)。
- 言語:enfresitdept-brjakozh-cn、および ar
Foundry、ハブベース
モデル タイプ 能力
Cohere-command-r-plus-08-2024 chat-completion - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- 言語:enfresitdept-brjakozh-cn、および ar
- ツールの呼び出し: はい
- 応答形式: テキスト、JSON
Cohere-command-r-08-2024 chat-completion - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- 言語:enfresitdept-brjakozh-cn、および ar
- ツールの呼び出し: はい
- 応答形式: テキスト、JSON
Cohere-embed-v3-english embeddings - 入力: テキストと画像 (512 トークン)
- アウトプット: ベクター (1024 dim)。
- 言語:en
Cohere-embed-v3-multilingual embeddings - 入力: テキスト (512 トークン)
- アウトプット: ベクター (1024 dim)。
- 言語:enfresitdept-brjakozh-cn、および ar

Cohere 再ランク付け

モデル タイプ 能力 API リファレンス プロジェクトの種類
Cohere-rerank-v3.5 rerank
テキスト分類
- 入力: テキスト
- 出力: テキスト
- 言語: 英語、中国語、フランス語、ドイツ語、インドネシア語、イタリア語、ポルトガル語、ロシア語、スペイン語、アラビア語、オランダ語、ヒンディー語、日本語、ベトナム語
Cohere の v2/rerank API ハブベース

Cohere rerank モデルの価格の詳細については、 Cohere rerank モデルの価格を参照してください。

Foundry ポータルの Cohere モデルを参照してください。

Meta

Meta Llama のモデルとツールは、事前トレーニングおよび微調整された生成 AI テキストと画像推論モデルのコレクションです。 メタ モデルのスケール範囲は次のとおりです。

  • 1B や 3B Base およびデバイス上およびエッジ推論用の Instruct モデルなどの小規模言語モデル (SLM)
  • 7B、8B、70B の Base および Instruct モデルなどの中規模の大規模言語モデル (LLM)
  • Meta Llama 3.1-405B などの高パフォーマンス モデルは、合成データ生成や蒸留のユースケースに利用されます。

Foundry で Meta Llama モデルをデプロイするには、Foundry ポータルで Microsoft Foundry モデルをデプロイするを参照してください。

モデル タイプ 能力 プロジェクトの種類
Llama-3.2-11B-Vision-Instruct chat-completion - 入力: テキストと画像 (128,000 トークン)
- 出力: テキスト (8,192 トークン)
- 言語:en
- ツールの呼び出し: いいえ
- 応答形式: テキスト
Foundry、ハブベース
Llama-3.2-90B-Vision-Instruct chat-completion - 入力: テキストと画像 (128,000 トークン)
- 出力: テキスト (8,192 トークン)
- 言語:en
- ツールの呼び出し: いいえ
- 応答形式: テキスト
Foundry、ハブベース
Meta-Llama-3.1-405B-Instruct chat-completion - 入力: テキスト (131,072 トークン)
- 出力: テキスト (8,192 トークン)
- 言語:endefritpthies、および th
- ツールの呼び出し: いいえ
- 応答形式: テキスト
Foundry、ハブベース
Meta-Llama-3.1-8B-Instruct chat-completion - 入力: テキスト (131,072 トークン)
- 出力: テキスト (8,192 トークン)
- 言語:endefritpthies、および th
- ツールの呼び出し: いいえ
- 応答形式: テキスト
Foundry、ハブベース
Llama-4-Scout-17B-16E-Instruct chat-completion - 入力: テキストと画像 (128,000 トークン)
- 出力: テキスト (8,192 トークン)
- 言語:en
- ツールの呼び出し: いいえ
- 応答形式: テキスト
Foundry、ハブベース
モデル タイプ 能力
Llama-3.2-11B-Vision-Instruct chat-completion - 入力: テキストと画像 (128,000 トークン)
- 出力: テキスト (8,192 トークン)
- 言語:en
- ツールの呼び出し: いいえ
- 応答形式: テキスト
Llama-3.2-90B-Vision-Instruct chat-completion - 入力: テキストと画像 (128,000 トークン)
- 出力: テキスト (8,192 トークン)
- 言語:en
- ツールの呼び出し: いいえ
- 応答形式: テキスト
Meta-Llama-3.1-405B-Instruct chat-completion - 入力: テキスト (131,072 トークン)
- 出力: テキスト (8,192 トークン)
- 言語:endefritpthies、および th
- ツールの呼び出し: いいえ
- 応答形式: テキスト
Meta-Llama-3.1-8B-Instruct chat-completion - 入力: テキスト (131,072 トークン)
- 出力: テキスト (8,192 トークン)
- 言語:endefritpthies、および th
- ツールの呼び出し: いいえ
- 応答形式: テキスト
Llama-4-Scout-17B-16E-Instruct chat-completion - 入力: テキストと画像 (128,000 トークン)
- 出力: テキスト (8,192 トークン)
- 言語:en
- ツールの呼び出し: いいえ
- 応答形式: テキスト

Foundry ポータルのメタ モデルを参照してください。 Meta のモデルの一部は、Azure によって直接販売されている Foundry モデルとしても利用できます。

Microsoft

Microsoft モデルには、MAI モデル、Phi モデル、医療 AI モデルなど、さまざまなモデル グループが含まれています。

Foundry で Microsoft モデルをデプロイするには、Foundry ポータルで Microsoft Foundry モデルをデプロイするを参照してください。

モデル タイプ 能力 プロジェクトの種類
Phi-4-mini-instruct chat-completion - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- Languages:ar, zhcsdanlenfifrdehehuitjakonoplptruessvthtr、および uk
- ツールの呼び出し: いいえ
- 応答形式: テキスト
Foundry、ハブベース
Phi-4-multimodal-instruct chat-completion - 入力: テキスト、画像、オーディオ (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- Languages:ar, zhcsdanlenfifrdehehuitjakonoplptruessvthtr、および uk
- ツールの呼び出し: いいえ
- 応答形式: テキスト
Foundry、ハブベース
Phi-4 chat-completion - 入力: テキスト (16,384 トークン)
- 出力: テキスト (16,384 トークン)
- Languages:enarbncsdadeelesfafifrguhahehihuiditjajvknkomlmrnlnoorpaplpsptrorusvswtatethtltrukurviyoおよびzh
- ツールの呼び出し: いいえ
- 応答形式: テキスト
Foundry、ハブベース
Phi-4-reasoning 推論コンテンツを使用したチャット完了 - 入力: テキスト (32,768 トークン)
- 出力: テキスト (32,768 トークン)
- 言語:en
- ツールの呼び出し: いいえ
- 応答形式: テキスト
Foundry、ハブベース
Phi-4-mini-reasoning 推論コンテンツを使用したチャット完了 - 入力: テキスト (128,000 トークン)
- 出力: テキスト (128,000 トークン)
- 言語:en
- ツールの呼び出し: いいえ
- 応答形式: テキスト
Foundry、ハブベース
モデル タイプ 能力
Phi-4-mini-instruct chat-completion - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- Languages:ar, zhcsdanlenfifrdehehuitjakonoplptruessvthtr、および uk
- ツールの呼び出し: いいえ
- 応答形式: テキスト
Phi-4-multimodal-instruct chat-completion - 入力: テキスト、画像、オーディオ (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- Languages:ar, zhcsdanlenfifrdehehuitjakonoplptruessvthtr、および uk
- ツールの呼び出し: いいえ
- 応答形式: テキスト
Phi-4 chat-completion - 入力: テキスト (16,384 トークン)
- 出力: テキスト (16,384 トークン)
- Languages:enarbncsdadeelesfafifrguhahehihuiditjajvknkomlmrnlnoorpaplpsptrorusvswtatethtltrukurviyoおよびzh
- ツールの呼び出し: いいえ
- 応答形式: テキスト
Phi-4-reasoning 推論コンテンツを使用したチャット完了 - 入力: テキスト (32,768 トークン)
- 出力: テキスト (32,768 トークン)
- 言語:en
- ツールの呼び出し: いいえ
- 応答形式: テキスト
Phi-4-mini-reasoning 推論コンテンツを使用したチャット完了 - 入力: テキスト (128,000 トークン)
- 出力: テキスト (128,000 トークン)
- 言語:en
- ツールの呼び出し: いいえ
- 応答形式: テキスト

Foundry ポータルで Microsoft モデルを参照してください。 Microsoft のモデルも、Azure によって直接販売されている Foundry モデルとして提供されています。

Mistral AI(ミストラルAI)

Mistral AI は、コード生成、汎用チャット、マルチモーダル タスク (Codestral、Ministral、Mistral Small、Mistral Medium など) のモデルを提供します。

Foundry で Mistral AI モデルをデプロイするには、Foundry ポータルで Microsoft Foundry モデルをデプロイするを参照してください。

モデル タイプ 能力 プロジェクトの種類
Codestral-2501 chat-completion - 入力: テキスト (262,144 トークン)
- 出力: テキスト (4,096 トークン)
- 言語: en
- ツールの呼び出し: いいえ
- 応答形式: テキスト
Foundry、ハブベース
Ministral-3B chat-completion - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- 言語: fr、de、es、it、en
- ツールの呼び出し: はい
- 応答形式: テキスト、JSON
Foundry、ハブベース
Mistral-small-2503 chat-completion - 入力: テキスト (32,768 トークン)
- 出力: テキスト (4,096 トークン)
- 言語: fr、de、es、it、en
- ツールの呼び出し: はい
- 応答形式: テキスト、JSON
Foundry、ハブベース
Mistral-medium-2505 chat-completion - 入力: テキスト (128,000 トークン)、画像
- 出力: テキスト (128,000 トークン)
- ツールの呼び出し: いいえ
- 応答形式: テキスト、JSON
Foundry、ハブベース
mistralai-Mistral-7B-Instruct-v01 chat-completion - 入力: テキスト
- 出力: テキスト
- 言語: en
- 応答形式: テキスト
ハブベース
mistralai-Mistral-7B-Instruct-v0-2 chat-completion - 入力: テキスト
- 出力: テキスト
- 言語: en
- 応答形式: テキスト
ハブベース
mistralai-Mixtral-8x7B-Instruct-v01 chat-completion - 入力: テキスト
- 出力: テキスト
- 言語: en
- 応答形式: テキスト
ハブベース
mistralai-Mixtral-8x22B-Instruct-v0-1 chat-completion - 入力: テキスト (64,000 トークン)
- 出力: テキスト (4,096 トークン)
- 言語: fr、it、de、es、en
- 応答形式: テキスト
ハブベース
モデル タイプ 能力
Codestral-2501 chat-completion - 入力: テキスト (262,144 トークン)
- 出力: テキスト (4,096 トークン)
- 言語: en
- ツールの呼び出し: いいえ
- 応答形式: テキスト
Ministral-3B chat-completion - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- 言語: fr、de、es、it、en
- ツールの呼び出し: はい
- 応答形式: テキスト、JSON
Mistral-small-2503 chat-completion - 入力: テキスト (32,768 トークン)
- 出力: テキスト (4,096 トークン)
- 言語: fr、de、es、it、en
- ツールの呼び出し: はい
- 応答形式: テキスト、JSON
Mistral-medium-2505 chat-completion - 入力: テキスト (128,000 トークン)、画像
- 出力: テキスト (128,000 トークン)
- ツールの呼び出し: いいえ
- 応答形式: テキスト、JSON

Foundry ポータルの Mistral AI モデルを参照してください。 Mistral のモデルも、Azure によって直接販売されている Foundry モデルとして提供されています。

Nixtla

Nixtla の TimeGEN-1 は、時系列データ用の生成的な事前トレーニング済みの予測および異常検出モデルです。 TimeGEN-1 は、学習を行わずに、過去の値と外生変数のみを入力として、新たな時系列に対して高精度な予測を生成します。

Foundry に TimeGEN-1 をデプロイするには、Foundry ポータルで Microsoft Foundry モデルをデプロイするを参照してください。

推論を実行するには、TimeGEN-1 で Nixtla のカスタム推論 API を使用する必要があります。

モデル タイプ 能力 推論 API プロジェクトの種類
TimeGEN-1 Forecasting - インプット: JSON またはデータフレームとしての時系列データ (多変量入力をサポート)
- アウトプット: JSON としての時系列データ
- ツールの呼び出し: いいえ
- 応答形式: JSON
Nixtla の API とやりとりをするための予測クライアント ハブベース

Nixtla モデルの価格の詳細については、 Nixtla を参照してください。

Foundry ポータルの Nixtla モデルを参照してください。

NTT データ

tsuzumi は、言語最適化された自己回帰型トランスフォーマーです。 調整バージョンでは教師あり微調整 (SFT) を使用します。 ツズミは日本語と英語の両方を高効率で処理します。

Foundry に tsutsutsu-7b をデプロイするには、Foundry ポータルで Microsoft Foundry モデルをデプロイするを参照してください。

モデル タイプ 能力 プロジェクトの種類
tsuzumi-7b chat-completion - 入力: テキスト (8,192 トークン)
- 出力: テキスト (8,192 トークン)
- Languages:en そして jp
- ツールの呼び出し: いいえ
- 応答形式: テキスト
ハブベース

Foundry ポータルの NTT データ モデルを参照してください。

安定性 AI

Stability AI の画像生成モデルには、Stable Image Core、Stable Image Ultra、Stable Diffusion 3.5 Large が含まれています。 Stable Diffusion 3.5 Large は、画像入力とテキスト入力の両方に対応しています。

Foundry で安定性 AI モデルをデプロイするには、 Foundry ポータルで Microsoft Foundry モデルをデプロイするを参照してください。

モデル タイプ 能力 プロジェクトの種類
安定拡散 3.5 大 イメージの生成 - 入力: テキストと画像 (1,000 トークンと 1 つの画像)
- アウトプット: 1 つの画像
- ツールの呼び出し: いいえ
- 応答形式: 画像 (PNG および JPG)
Foundry、ハブベース
安定したイメージ コア イメージの生成 - 入力: テキスト (1,000 トークン)
- アウトプット: 1 つの画像
- ツールの呼び出し: いいえ
- 応答形式: 画像 (PNG と JPG)
Foundry、ハブベース
ステーブルイメージウルトラ イメージの生成 - 入力: テキスト (1,000 トークン)
- アウトプット: 1 つの画像
- ツールの呼び出し: いいえ
- 応答形式: 画像 (PNG と JPG)
Foundry、ハブベース
モデル タイプ 能力
Stable Diffusion 3.5 Large イメージの生成 - 入力: テキストと画像 (1,000 トークンと 1 つの画像)
- アウトプット: 1 つの画像
- ツールの呼び出し: いいえ
- 応答形式: 画像 (PNG および JPG)
Stable Image Core イメージの生成 - 入力: テキスト (1,000 トークン)
- アウトプット: 1 つの画像
- ツールの呼び出し: いいえ
- 応答形式: 画像 (PNG と JPG)
Stable Image Ultra イメージの生成 - 入力: テキスト (1,000 トークン)
- アウトプット: 1 つの画像
- ツールの呼び出し: いいえ
- 応答形式: 画像 (PNG と JPG)

Foundry ポータルの安定性 AI モデルを参照してください。

オープン モデルとカスタム モデル

モデル カタログでは、より広範なプロバイダーからより多くのモデルを選択できます。 これらのモデルでは、モデルが API として提供されている Microsoft Foundry リソースでの標準デプロイのオプションを使用することはできません。 代わりに、これらのモデルをデプロイするには、インフラストラクチャでモデルをホストし、AI ハブを作成し、基になるコンピューティング クォータを提供してモデルをホストすることが必要になる場合があります。

さらに、これらのモデルは、オープン アクセスまたは IP で保護できます。 どちらの場合も、Foundry のマネージド コンピューティング オファリングにデプロイする必要があります。 開始するには、「 方法: マネージド コンピューティングにデプロイする」を参照してください。