次の方法で共有


Azure AI モデル カタログの注目モデル

Azure AI モデル カタログには、さまざまなプロバイダーから多数のモデルが用意されています。 モデル カタログからモデルをデプロイするためのさまざまなオプションがあります。 この記事では、標準の展開を介して Microsoft のサーバーに展開およびホストできる、モデル カタログ内の注目のモデルの一覧を示します。 これらのモデルの一部では、マネージド コンピューティングを使用してデプロイ用にインフラストラクチャでホストすることもできます。 マネージド コンピューティングまたは標準デプロイを使用してデプロイに使用できるモデルをカタログ内で検索するには、 サポートされているデプロイ オプション に関する使用可能なモデルを参照してください。

モデルで推論を実行するには、 Nixtla の TimeGEN-1Cohere rerank などの一部のモデルで、モデル プロバイダーのカスタム API を使用する必要があります。 他のユーザーは、 Azure AI モデル推論を使用した推論をサポートしています。 個々のモデルの詳細については、 Azure AI モデル カタログでモデル カードを確認します。

Azure AI Foundry モデル カタログ セクションと使用可能なモデルを示すアニメーション。

AI21 Labs

Jamba ファミリ モデルは、AI21 のハイブリッド Mamba-Transformer アーキテクチャを使用した AI21 の運用環境グレードの Mamba ベース大規模言語モデル (LLM) です。 これは、AI21 のハイブリッド構造状態空間モデル (SSM) トランスフォーマー Jamba モデルのインストラクションチューニングされたバージョンです。 Jamba ファミリ モデルは、品質とパフォーマンスに関して商業利用できる信頼性を持つように構築されています。

モデル タイプ 資格
AI21-Jamba-1.5-Mini チャット完了 - 入力: テキスト (262,144 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON、構造化済み出力
AI21-Jamba-1.5-Large チャット完了 - 入力: テキスト (262,144 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON、構造化済み出力

Azure AI モデル カタログのこのモデル コレクションを参照してください。

Azure OpenAI

Azure AI Foundry Models の Azure OpenAI には、さまざまな機能と価格ポイントを備えたさまざまなモデル セットが用意されています。 モデルには以下のものがあります。

  • 推論と問題解決のタスクに、集中力と能力を高めて取り組むように設計された最先端のモデル
  • 自然言語とコードを理解して生成できるモデル
  • 音声テキスト変換の文字起こしと翻訳が可能なモデル
モデル タイプ 資格
o3-mini チャット完了 - 入力: テキストと画像 (200,000 トークン)
- 出力: テキスト (100,000 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON、構造化済み出力
o1 チャットの完了 (画像付き) - 入力: テキストと画像 (200,000 トークン)
- 出力: テキスト (100,000 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON、構造化済み出力
o1-preview チャット完了 - 入力: テキスト (128,000 トークン)
- 出力: テキスト (32,768 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON、構造化済み出力
o1-mini チャット完了 - 入力: テキスト (128,000 トークン)
- 出力: テキスト (65,536 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
gpt-4o-realtime-preview リアルタイム - 入力: コントロール、テキスト、オーディオ (131,072 トークン)
- 出力: テキストとオーディオ (16,384 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON
gpt-4o チャットの完了 (画像とオーディオ コンテンツを含む) - 入力: テキスト、画像、オーディオ (131,072 トークン)
- 出力: テキスト (16,384 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON、構造化済み出力
gpt-4o-mini チャットの完了 (画像とオーディオ コンテンツを含む) - 入力: テキスト、画像、オーディオ (131,072 トークン)
- 出力: テキスト (16,384 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON、構造化済み出力
text-embedding-3-large 埋め込み - 入力: テキスト (8,191 トークン)
- アウトプット: ベクトル (3,072 次元)。
text-embedding-3-small 埋め込み - 入力: テキスト (8,191 トークン)
- アウトプット: ベクター (1,536 dim)。

Azure AI モデル カタログのこのモデル コレクションを参照してください。

コヒア

Cohere のモデル ファミリには、rerank、チャットの完了、埋め込みモデルなど、さまざまなユース ケース向けに最適化されたさまざまなモデルが含まれています。

Cohere コマンドと埋め込み

次の表に、Azure AI モデル推論を使用して推論できる Cohere モデルを示します。

モデル タイプ 資格
Cohere-command-A チャット完了 - 入力: テキスト (256,000 トークン)
- 出力: テキスト (8,000 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト
Cohere-command-r-plus-08-2024 チャット完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON
Cohere-command-r-08-2024 チャット完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON
コヒア・コマンド・アール・プラス
(非推奨)
チャット完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON
Cohere-command-r
(非推奨)
チャット完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON
Cohere-embed-4 埋め込み
image-embeddings
- 入力: 画像、テキスト
- 出力: 画像、テキスト (128,000 トークン)
- ツールの呼び出し: 可能
- 応答形式: 画像、テキスト
Cohere-embed-v3-english 埋め込み
image-embeddings
- 入力: テキスト (512 トークン)
- アウトプットは ベクター (1024次元)。
Cohere-embed-v3-多言語 埋め込み
image-embeddings
- 入力: テキスト (512 トークン)
- アウトプットは ベクター (1024次元)。

推論の例: Cohere コマンドと埋め込み

Cohere モデルの使用方法のその他の例については、次の例を参照してください。

説明 言語 サンプル
Web リクエスト Bash (バッシュ) Command-RCommand-R+
cohere-embed.ipynb
C# 用 Azure AI 推論パッケージ C# リンク
JavaScript 用 Azure AI 推論パッケージ JavaScript リンク
Python 用 Azure AI 推論パッケージ Python(プログラミング言語) リンク
OpenAI SDK (試験段階) Python(プログラミング言語) リンク
LangChain Python(プログラミング言語) リンク
Cohere SDK Python(プログラミング言語) コマンド
埋め込み
LiteLLM SDK Python(プログラミング言語) リンク

取得拡張生成 (RAG) とツールの使用サンプル: Cohere コマンドと埋め込み

説明 パッケージ サンプル
Cohere 埋め込みを使用してローカルの Facebook AI 類似性検索 (FAISS) ベクター インデックスを作成する - Langchain langchainlangchain_cohere cohere_faiss_langchain_embed.ipynb
Cohere コマンド R/R+ を使用して、ローカルの FAISS ベクター インデックスのデータから質問に回答する - Langchain langchainlangchain_cohere command_faiss_langchain.ipynb
Cohere コマンド R/R+ を使用して、AI 検索ベクター インデックスのデータから質問に回答する - Langchain langchainlangchain_cohere cohere-aisearch-langchain-rag.ipynb
Cohere コマンド R/R+ を使用して、AI 検索ベクター インデックスのデータから質問に回答する - Cohere SDK cohereazure_search_documents cohere-aisearch-rag.ipynb
LangChain を使用したコマンド R+ ツールおよび関数呼び出し coherelangchainlangchain_cohere command_tools-langchain.ipynb

Cohere Rerank

次の表に、Cohere の再ランク付けモデルの一覧を示します。 これらの再ランク付けモデルで推論を実行するには、表に記載されている Cohere のカスタム rerank API を使用する必要があります。

モデル タイプ 推論 API
Cohere-rerank-v3.5 rerank
テキスト分類
Cohere の v2/rerank API
Cohere-rerank-v3-english
(非推奨)
rerank
テキスト分類
Cohere の v2/rerank API
Cohere の v1/rerank API
Cohere-rerank-v3-多言語
(非推奨)
rerank
テキスト分類
Cohere の v2/rerank API
Cohere の v1/rerank API

Cohere Rerank モデルの価格

クエリは、ユーザーのクエリと混同しないように、Cohere Rerank モデルの推論の入力として使用されるトークンに関連するコストを指す価格メーターです。 Cohere では、1 つの検索単位がクエリとしてカウントされ、最大 100 個のドキュメントがランク付けされます。 検索クエリの長さを含めると、500 個を超えるトークン (Cohere-rerank-v3.5 の場合) または 4096 個を超えるトークン (Cohere-rerank-v3-English および Cohere-rerank-v3-multilingual の場合) が複数のチャンクに分割され、各チャンクは 1 つのドキュメントとしてカウントされます。

Azure AI モデル カタログの Cohere モデル コレクションを参照してください

Core42

Core42 には、アラビア語の最新機能を備えたアラビア語と英語用の自動回帰のバイリンガル LLM が含まれています。

モデル タイプ 資格
jais-30b-chat チャット完了 - 入力: テキスト (8,192 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON

Azure AI モデル カタログのこのモデル コレクションを参照してください。

推論の例: Core42

Jais モデルの使用方法の他の例については、次の例を参照してください。

説明 言語 サンプル
C# 用 Azure AI 推論パッケージ C# リンク
JavaScript 用 Azure AI 推論パッケージ JavaScript リンク
Python 用 Azure AI 推論パッケージ Python(プログラミング言語) リンク

DeepSeek

DeepSeek のモデル ファミリには DeepSeek-R1 が含まれています。DeepSeek-R1 は、言語、科学的推論、コーディング タスク、DeepSeek-V3-0324、エキスパート混合 (MoE) 言語モデルなど、段階的なトレーニング プロセスを使用した推論タスクに優れています。

モデル タイプ 資格
DeekSeek-V3-0324 チャット完了 - 入力: テキスト (131,072 トークン)
- 出力: (131,072 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト、JSON
DeepSeek-V3
(レガシ)
チャット完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (131,072 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト、JSON
DeepSeek-R1 推論コンテンツを使用したチャット完了 - 入力: テキスト (163,840 トークン)
- 出力: テキスト (163,840 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト。

DeepSeek-R1 のチュートリアルについては、「 チュートリアル: Azure AI モデル推論で推論モデル DeepSeek-R1 使用する」を参照してください。

Azure AI モデル カタログのこのモデル コレクションを参照してください。

推論の例: DeepSeek

DeepSeek モデルの使用方法の他の例については、次の例を参照してください。

説明 言語 サンプル
Python 用 Azure AI 推論パッケージ Python(プログラミング言語) リンク
JavaScript 用 Azure AI 推論パッケージ JavaScript リンク
C# 用 Azure AI 推論パッケージ C# リンク
Java 用 Azure AI 推論パッケージ ジャワ リンク

メタ

Meta Llama のモデルとツールは、事前トレーニングおよび微調整された生成 AI テキストと画像推論モデルのコレクションです。 メタ モデルの範囲は、次を含むようにスケーリングされています。

  • 1B や 3B Base およびデバイス上およびエッジ推論用の Instruct モデルなどの小規模言語モデル (SLM)
  • 7B、8B、70B の Base および Instruct モデルなどの中規模の大規模言語モデル (LLM)
  • 合成データ生成および蒸留ユース ケース向けの Meta Llama 3.1-405B Instruct などの高性能モデル。
  • 高パフォーマンスのネイティブマルチモーダル モデルである Llama 4 Scout と Llama 4 Maverick は、エキスパートの混合アーキテクチャを活用して、テキストと画像の理解において業界をリードするパフォーマンスを提供します。
モデル タイプ 資格
Llama-4-Scout-17B-16E-Instruct チャット完了 - 入力: テキストと画像 (128,000 トークン)
- 出力: テキスト (8,192 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト
Llama 4-Maverick-17B-128E-Instruct-FP8 チャット完了 - 入力: テキストと画像 (128,000 トークン)
- 出力: テキスト (8,192 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト
Llama-3.3-70B-Instruct チャット完了 - 入力: テキスト (128,000 トークン)
- 出力: テキスト (8,192 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Llama-3.2-90B-Vision-Instruct チャットの完了 (画像付き) - 入力: テキストと画像 (128,000 トークン)
- 出力: テキスト (8,192 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Llama-3.2-11B-Vision-Instruct チャットの完了 (画像付き) - 入力: テキストと画像 (128,000 トークン)
- 出力: テキスト (8,192 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Meta-Llama-3.1-8B-Instruct チャット完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (8,192 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Meta-Llama-3.1-405B-Instruct チャット完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (8,192 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Meta-Llama-3.1-70B-Instruct (非推奨) チャット完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (8,192 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Meta-Llama-3-8B-Instruct (非推奨) チャット完了 - 入力: テキスト (8,192 トークン)
- 出力: テキスト (8,192 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Meta-Llama-3-70B-Instruct (非推奨) チャット完了 - 入力: テキスト (8,192 トークン)
- 出力: テキスト (8,192 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト

Azure AI モデル カタログのこのモデル コレクションを参照してください。

推論の例: Meta Llama

Meta Llama モデルの使用方法のその他の例については、次の例を参照してください。

説明 言語 サンプル
CURL 要求 Bash (バッシュ) リンク
C# 用 Azure AI 推論パッケージ C# リンク
JavaScript 用 Azure AI 推論パッケージ JavaScript リンク
Python 用 Azure AI 推論パッケージ Python(プログラミング言語) リンク
Python Web リクエスト Python(プログラミング言語) リンク
OpenAI SDK (試験段階) Python(プログラミング言語) リンク
LangChain Python(プログラミング言語) リンク
LiteLLM Python(プログラミング言語) リンク

Microsoft

Microsoft モデルには、MAI モデル、Phi モデル、医療 AI モデルなど、さまざまなモデル グループが含まれています。 使用可能なすべての Microsoft モデルを表示するには、 Azure AI Foundry ポータルで Microsoft モデル コレクションを表示します

モデル タイプ 資格
MAI-DS-R1 推論コンテンツを使用したチャット完了 - 入力: テキスト (163,840 トークン)
- 出力: テキスト (163,840 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト。
Phi-4-reasoning 推論コンテンツを使用したチャット完了 - 入力: テキスト (32768 トークン)
- 出力: テキスト (32768 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-4-ミニ推理 推論コンテンツを使用したチャット完了 - 入力: テキスト (128,000 トークン)
- 出力: テキスト (128,000 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-4-multimodal-instruct チャットの完了 (画像とオーディオ コンテンツを含む) - 入力: テキスト、画像、オーディオ (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-4-mini-instruct チャット完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-4 チャット完了 - 入力: テキスト (16,384 トークン)
- 出力: テキスト (16,384 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-3.5-mini-instruct チャット完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-3.5-MoE-instruct チャット完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-3.5-vision-instruct チャットの完了 (画像付き) - 入力: テキストと画像 (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-3-mini-128k-instruct チャット完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-3-mini-4k-instruct チャット完了 - 入力: テキスト (4,096 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-3-small-128k-instruct チャット完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-3-small-8k-instruct チャット完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-3-medium-128k-instruct チャット完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Phi-3-medium-4k-instruct チャット完了 - 入力: テキスト (4,096 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト

推論の例: Microsoft モデル

Microsoft モデルの使用方法のその他の例については、次の例を参照してください。

説明 言語 サンプル
C# 用 Azure AI 推論パッケージ C# リンク
JavaScript 用 Azure AI 推論パッケージ JavaScript リンク
Python 用 Azure AI 推論パッケージ Python(プログラミング言語) リンク
LangChain Python(プログラミング言語) リンク
Llama-Index Python(プログラミング言語) リンク

Azure AI モデル カタログの Microsoft モデル コレクションを参照してください。

Mistral AI(ミストラルAI)

Mistral AI では、次の 2 つのカテゴリのモデルを提供しています。

  • Premium モデル: これらには、Mistral Large、Mistral Small、Mistral-OCR-2503、Mistral Medium 3 (25.05)、および Ministral 3B モデルが含まれており、従量課金制トークンベースの課金でサーバーレス API として利用できます。
  • オープンモデル:ミストラル-small-2503、 Codestral、および Mistral Nemo (従量課金制トークン ベースの課金でサーバーレス API として利用できます)、 Mixtral-8x7B-Instruct-v01、Mixtral-8x7B-v01、Mistral-7B-Instruct-v01、Mistral-7B-v01 (セルフホステッドマネージド エンドポイントでダウンロードして実行できます)。
モデル タイプ 資格
Codestral-2501 チャット完了 - 入力: テキスト (262,144 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト
Ministral-3B チャット完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON
Mistral Nemo チャット完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON
Mistral-Large-2411 チャット完了 - 入力: テキスト (128,000 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON
Mistral-large-2407
(非推奨)
チャット完了 - 入力: テキスト (131,072 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON
Mistral-large
(非推奨)
チャット完了 - 入力: テキスト (32,768 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON
Mistral-medium-2505 チャット完了 - 入力: テキスト (128,000 トークン)、画像
- 出力: テキスト (128,000 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト、JSON
Mistral-OCR-2503 画像からテキストへ - 入力: 画像または PDF ページ (1,000 ページ、最大 50 MB PDF ファイル)
- 出力: テキスト
- ツールの呼び出し: 不可
- 応答形式: Text、JSON、Markdown
Mistral-small-2503 チャットの完了 (画像付き) - 入力: テキストと画像 (131,072 トークン)
イメージ ベースのトークンは 16px x 16px です
元の画像のブロック
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON
Mistral-small チャット完了 - 入力: テキスト (32,768 トークン)
- 出力: テキスト (4,096 トークン)
- ツールの呼び出し: 可能
- 応答形式: テキスト、JSON

Azure AI モデル カタログのこのモデル コレクションを参照してください。

推論の例: Mistral

Mistral モデルのその他の使用方法例については、次の例とチュートリアルを参照してください。

説明 言語 サンプル
CURL 要求 Bash (バッシュ) リンク
C# 用 Azure AI 推論パッケージ C# リンク
JavaScript 用 Azure AI 推論パッケージ JavaScript リンク
Python 用 Azure AI 推論パッケージ Python(プログラミング言語) リンク
Python Web リクエスト Python(プログラミング言語) リンク
OpenAI SDK (試験段階) Python(プログラミング言語) Mistral - OpenAI SDK サンプル
LangChain Python(プログラミング言語) Mistral - LangChain サンプル
Mistral AI(ミストラルAI) Python(プログラミング言語) Mistral - Mistral AI サンプル
LiteLLM Python(プログラミング言語) Mistral - LiteLLM サンプル

Nixtla

Nixtla の TimeGEN-1 は、時系列データ用の生成的な事前トレーニング済みの予測および異常検出モデルです。 TimeGEN-1 では、履歴値と外因性共変量のみを入力として使用して、トレーニングなしで新しい時系列の正確な予測を生成できます。

推論を実行するには、TimeGEN-1 で Nixtla のカスタム推論 API を使用する必要があります。

モデル タイプ 資格 推論 API
TimeGEN-1 予測 - インプット: JSON またはデータフレームとしての時系列データ (多変量入力をサポート)
- アウトプット: JSON としての時系列データ
- ツールの呼び出し: 不可
- 応答形式: JSON
NixtlaのAPIを利用して予測を行うクライアント

必要なトークンの数を見積もる

TimeGEN-1 デプロイを作成する前に、使用して課金するトークンの数を見積もると便利です。 1 つのトークンは、入力データセットまたは出力データセット内の 1 つのデータ ポイントに対応します。

次の入力時系列データセットがあるとします。

Unique_id タイムスタンプ ターゲット変数 外因性変数 1 外因性変数 2
である 2016-10-22 00:00:00 70.00 49593.0 57253.0
である 2016-10-22 01:00:00 37.10 46073.0 51887.0

トークン数を決定するには、行の数 (この例では 2) と予測に使用する列 (unique_id と timestamp の列は数に含めない) の数 (この例では 3) を掛け合わせて、合計 6 トークンとなります。

次の出力データセットがあるとします。

Unique_id タイムスタンプ 予測ターゲット変数
である 2016-10-22 02:00:00 46.57
である 2016-10-22 03:00:00 48.57

また、データ予測後に返されるデータ ポイントの数を数えることによって、トークンの数を決定することもできます。 この例では、トークンの数は 2 です。

トークンに基づいて価格を見積もる

支払う価格を決定する 4 つの価格メーターがあります。 これらのメーターは次のとおりです。

価格メーター 説明
ペイゴー推論入力トークン finetune_steps = 0 の場合、推論の入力として使用されるトークンに関連付けられたコスト
Paygo推論出力トークン finetune_steps = 0 の場合、推論の出力として使用されるトークンに関連付けられたコスト
ペイゴー微調整モデル推論入力トークン finetune_steps> 0 の場合、推論の入力として使用されるトークンに関連付けられたコスト
ペイゴーファインチューニングされたモデル推論出力トークン finetune_steps> 0 の場合、推論の出力として使用されるトークンに関連付けられたコスト

Azure AI モデル カタログの Nixtla モデル コレクションを参照してください。

NTT DATA

ツズミ は自動回帰言語最適化トランスフォーマーです。 調整バージョンでは教師あり微調整 (SFT) を使用します。 ツズミは日本語と英語の両方を高効率で処理します。

モデル タイプ 資格
tsuzumi-7b チャット完了 - 入力: テキスト (8,192 トークン)
- 出力: テキスト (8,192 トークン)
- ツールの呼び出し: 不可
- 応答形式: テキスト

安定性 AI

画像生成モデルの安定性 AI コレクションには、Stable Image Core、Stable Image Ultra、Stable Diffusion 3.5 Large が含まれます。 Stable Diffusion 3.5 Largeは画像とテキストの入力が可能です。

モデル タイプ 資格
Stable Diffusion 3.5 Large イメージの生成 - 入力: テキストと画像 (1000 トークンと 1 つの画像)
- 出力: 1 つの画像
- ツールの呼び出し: 不可
- 応答形式: 画像 (PNG および JPG)
安定したイメージ コア イメージの生成 - 入力: テキスト (1000 トークン)
- 出力: 1 つの画像
- ツールの呼び出し: 不可
- 応答形式: 画像 (PNG と JPG)
ステーブルイメージウルトラ イメージの生成 - 入力: テキスト (1000 トークン)
- 出力: 1 つの画像
- ツールの呼び出し: 不可
- 応答形式: 画像 (PNG と JPG)

推論の例: スタビリティAI

標準デプロイにデプロイされた安定性 AI モデルは、ルート /image/generationsに Azure AI モデル推論 API を実装します。 安定性 AI モデルの使用方法の例については、次の例を参照してください。