Azure AI 模型目錄提供來自各種提供者的大量 Azure AI Foundry 模型。 您有各個選項可從模型目錄部署模型。 本文列出可透過標準部署部署的 Azure AI Foundry 模型。 針對其中一些模型,您也可以在基礎結構上裝載這些模型,以透過受控計算進行部署。
這很重要
處於預覽狀態的模型會在模型目錄中的模型卡片上標示為 預覽 。
若要使用模型執行推斷,Nixtla's TimeGEN-1 和 Cohere rerank 之類的一些模型需要您使用來自模型提供者的自訂 API。 其他支援使用 模型推斷 API 進行推斷。 您可以在 Azure AI Foundry 入口網站的模型目錄中檢閱其模型卡片,以找到個別模型的詳細數據。
AI21 Labs
Jamba 系列模型是 AI21 的量產級大型語言模型 (LLM),採用 AI21 的混合式 Mamba-Transformer 架構。 這是 AI21 混合式結構化狀態空間模型 (SSM) 轉換器 Jamba 模型的指令微調版本。 Jamba 系列模型的建置目的是在商業用途上提供可靠的品質和效能。
型號 | 類型 | 能力 |
---|---|---|
AI21-Jamba-1.5-Mini | 聊天完成 | - 輸入: 文字(262,144 個詞元) - 輸出: 文字(4,096 個令牌) - 工具呼叫: 是 - 回應格式: 文字、JSON、結構化輸出 |
AI21-Jamba-1.5-Large | 聊天完成 | - 輸入: 文字(262,144 個詞元) - 輸出: 文字(4,096 個令牌) - 工具呼叫: 是 - 回應格式: 文字、JSON、結構化輸出 |
請參閱 Azure AI Foundry 入口網站中的此模型集合。
Azure OpenAI
Foundry 模型中的 Azure OpenAI 提供一組不同功能和價格點的多樣化模型。 這些模型包括:
- 最先進的模型被設計用來加強專注力和能力,並專注於解決推理和問題解決任務。
- 可瞭解併產生自然語言和程序代碼的模型
- 可將語音轉譯和翻譯為文字的模型
型號 | 類型 | 能力 |
---|---|---|
o3-mini | 聊天完成 | - 輸入: 文字和影像 (200,000 個令牌) - 輸出: 文字(100,000 個令牌) - 工具呼叫: 是 - 回應格式: 文字、JSON、結構化輸出 |
o1 | 聊天完成 (含影像) | - 輸入: 文字和影像 (200,000 個令牌) - 輸出: 文字(100,000 個令牌) - 工具呼叫: 是 - 回應格式: 文字、JSON、結構化輸出 |
o1-preview | 聊天完成 | - 輸入: 文字(128,000 個詞元) - 輸出: 文字(32,768 個令牌) - 工具呼叫: 是 - 回應格式: 文字、JSON、結構化輸出 |
o1-mini | 聊天完成 | - 輸入: 文字(128,000 個詞元) - 輸出: 文字(65,536 個令牌) - 工具呼叫: 否 - 回應格式: 文字 |
gpt-4o-realtime-preview | 即時 | - 輸入: 控制項、文字和音訊(131,072 標記) - 輸出: 文字和音訊 (16,384 標記) - 工具呼叫: 是 - 回應格式: 文字、JSON |
gpt-4o | 聊天完成 (含影像和音訊內容) | - 輸入: 文字、影像和音訊 (131,072 標記) - 輸出: 文字(16,384 個令牌) - 工具呼叫: 是 - 回應格式: 文字、JSON、結構化輸出 |
gpt-4o-mini | 聊天完成 (含影像和音訊內容) | - 輸入: 文字、影像和音訊 (131,072 標記) - 輸出: 文字(16,384 個令牌) - 工具呼叫: 是 - 回應格式: 文字、JSON、結構化輸出 |
text-embedding-3-large (英文) | 內嵌 | - 輸入: 文字 (8,191 標記) - 輸出:向量 (3,072 個維度) |
text-embedding-3-small | 內嵌 | - 輸入: 文字 (8,191 標記) - 輸出: 向量 (1,536 dim.) |
請參閱 Azure AI Foundry 入口網站中的此模型集合。
Cohere
Cohere 系列模型包含針對不同使用案例優化的多種模型,包括重新排序、聊天生成,以及嵌入模型。
Cohere 命令和內嵌
下表列出您可以透過模型推斷 API 推斷的 Cohere 模型。
型號 | 類型 | 能力 |
---|---|---|
Cohere-command-A | 聊天完成 | - 輸入: 文字(256000 標記) - 輸出: 文字(8,000 個令牌) - 工具呼叫: 是 - 回應格式: 文字 |
Cohere-command-r-plus-08-2024 | 聊天完成 | - 輸入: 文字(131,072 個詞元) - 輸出: 文字(4,096 個令牌) - 工具呼叫: 是 - 回應格式: 文字、JSON |
Cohere-command-r-08-2024 | 聊天完成 | - 輸入: 文字(131,072 個詞元) - 輸出: 文字(4,096 個令牌) - 工具呼叫: 是 - 回應格式: 文字、JSON |
Cohere-command-r-plus (英文) (已淘汰) |
聊天完成 | - 輸入: 文字(131,072 個詞元) - 輸出: 文字(4,096 個令牌) - 工具呼叫: 是 - 回應格式: 文字、JSON |
Cohere-command-r (已淘汰) |
聊天完成 | - 輸入: 文字(131,072 個詞元) - 輸出: 文字(4,096 個令牌) - 工具呼叫: 是 - 回應格式: 文字、JSON |
Cohere-embed-v-4 | 內嵌 image-embeddings |
- 輸入: 影像、文字 - 輸出: 影像、文字(128,000 個令牌) - 工具呼叫: 是 - 回應格式: 影像、文字 |
Cohere-embed-v3-english | 內嵌 image-embeddings |
- 輸入: 文字 (512 標記) - 輸出: 向量 (1,024 dim.) |
Cohere-embed-v3-多語系 | 內嵌 image-embeddings |
- 輸入: 文字 (512 標記) - 輸出: 向量 (1,024 dim.) |
推斷範例:Cohere 命令和內嵌
如需如何使用 Cohere 模型的詳細資訊,請參閱下列範例:
說明 | 語言 | 範例 |
---|---|---|
Web 要求 | Bash | Command-RCommand-R+ cohere-embed.ipynb |
適用於 C 的 Azure AI 推斷套件# | C# | 連結 |
適用於 JavaScript 的 Azure AI 推斷套件 | JavaScript | 連結 |
適用於 Python 的 Azure AI 推斷套件 | Python(程式語言) | 連結 |
OpenAI SDK (實驗性) | Python(程式語言) | 連結 |
LangChain | Python(程式語言) | 連結 |
Cohere SDK | Python(程式語言) | 命令 嵌入 |
LiteLLM SDK | Python(程式語言) | 連結 |
擷取增強生成 (RAG) 和工具使用範例:Cohere 命令和內嵌
說明 | 封裝 | 範例 |
---|---|---|
使用 Cohere 內嵌建立本機 Facebook AI 相似性搜尋 (FAISS) 向量索引 - Langchain | langchain 、langchain_cohere |
cohere_faiss_langchain_embed.ipynb |
使用 Cohere Command R/R+ 回答本機 FAISS 向量索引的資料問題 - Langchain | langchain 、langchain_cohere |
command_faiss_langchain.ipynb |
使用 Cohere Command R/R+ 從 AI 搜尋向量索引中的資料回答問題 - Langchain | langchain 、langchain_cohere |
cohere-aisearch-langchain-rag.ipynb (英文) |
使用 Cohere Command R/R+ 回答 AI 搜尋向量索引的資料問題 - Cohere SDK | cohere 、azure_search_documents |
cohere-aisearch-rag.ipynb (英文) |
使用 LangChain 呼叫 Command R+ 工具/函式 | cohere 、langchain 、langchain_cohere |
command_tools-langchain.ipynb |
Cohere 重新排序
下表列出 Cohere 重新排序模型。 若要使用這些重新調整模型執行推斷,您必須使用 Cohere 的自定義重新調整 API,這些 API 會列在資料表中。
型號 | 類型 | 推斷 API |
---|---|---|
Cohere-rerank-v3.5 | rerank 文字分類 |
Cohere 的 v2/rerank API |
Cohere-rerank-v3-英語版 (已淘汰) |
rerank 文字分類 |
Cohere 的 v2/rerank API Cohere 的 v1/rerank API |
Cohere-rerank-v3-multilingual (已淘汰) |
rerank 文字分類 |
Cohere 的 v2/rerank API Cohere 的 v1/rerank API |
Cohere 重新排序模型的價格
查詢不會與使用者的查詢混淆,是一種價格計量,其是指與用來推斷 Cohere Rerank 模型之權杖相關聯的成本。 Cohere 將單一搜尋單位計算為具有要排名的最多 100 份文件的查詢。 包括搜尋查詢的長度時,超過 500 個權杖 (針對 Cohere-rerank-v3.5) 或超過 4096 個權杖 (針對 Cohere-rerank-v3-English 和 Cohere-rerank-v3-multilingual) 的文件會分割成多個區塊,其中的每個區塊都會計算為單一文件。
請參閱 Azure AI Foundry 入口網站中的 Cohere 模型集合。
Core42
Core42 包含自動迴歸的阿拉伯文及英文雙語 LLM,具備在阿拉伯文領域的最先進功能。
型號 | 類型 | 能力 |
---|---|---|
jais-30b-chat (英文) | 聊天完成 | - 輸入: 文字(8,192 個字元) - 輸出: 文字(4,096 個令牌) - 工具呼叫: 是 - 回應格式: 文字、JSON |
請參閱 Azure AI Foundry 入口網站中的此模型集合。
推斷範例:Core42
如需如何使用 Jais 模型的詳細資訊,請參閱下列範例:
說明 | 語言 | 範例 |
---|---|---|
適用於 C 的 Azure AI 推斷套件# | C# | 連結 |
適用於 JavaScript 的 Azure AI 推斷套件 | JavaScript | 連結 |
適用於 Python 的 Azure AI 推斷套件 | Python(程式語言) | 連結 |
DeepSeek
DeepSeek 系列模型包括 DeepSeek-R1,其擅長使用逐步訓練程式進行推理工作,例如語言、科學推理和編碼工作、DeepSeek-V3-0324、混合專家(MoE) 語言模型等等。
型號 | 類型 | 能力 |
---|---|---|
DeepSeek-R1-0528 |
具有推理內容的聊天完成 | - 輸入: 文字(163,840 個令牌) - 輸出: 文字(163,840 個令牌) - 語言: en 和 zh - 工具呼叫: 否 - 回應格式: 文字 |
DeekSeek-V3-0324 | 聊天完成 | - 輸入: 文字(131,072 個詞元) - 輸出: (131,072 個令牌) - 工具呼叫: 否 - 回應格式: 文字、JSON |
DeepSeek-V3 (遺產) |
聊天完成 | - 輸入: 文字(131,072 個詞元) - 輸出: 文字(131,072 個令牌) - 工具呼叫: 否 - 回應格式: 文字、JSON |
DeepSeek-R1 | 具有推理內容的聊天完成 | - 輸入: 文字(163,840 個令牌) - 輸出: 文字(163,840 個令牌) - 工具呼叫: 否 - 回應格式: 文字。 |
如需 DeepSeek-R1 的教學課程,請參閱 教學課程:開始使用 Foundry 模型中的 DeepSeek-R1 推理模型。
請參閱 Azure AI Foundry 入口網站中的此模型集合。
推斷範例:DeepSeek
如需如何使用 DeepSeek 模型的詳細資訊,請參閱下列範例:
說明 | 語言 | 範例 |
---|---|---|
適用於 Python 的 Azure AI 推斷套件 | Python(程式語言) | 連結 |
適用於 JavaScript 的 Azure AI 推斷套件 | JavaScript | 連結 |
適用於 C 的 Azure AI 推斷套件# | C# | 連結 |
適用於 Java 的 Azure AI 推斷套件 | 爪哇島 | 連結 |
美達
Meta Llama 模型和工具是預先定型和微調的產生 AI 文字和影像推理模型的集合。 Meta 模型範圍可以調整以包含:
- 例如應用於裝置和邊緣推斷的小型語言模型(SLM),包含 1B 和 3B 基礎模型及指令模型。
- 中型大型語言模型(LLM),例如 7B、8B 和 70B 基底和指示模型
- 高效能模型如 Meta Llama 3.1-405B 被用於合成資料生成和提煉使用案例。
- 高效能的原生多模式模型,Llama 4 Scout 和 Llama 4 Maverick,會運用專家組合架構,來提供文字和影像理解方面領先業界的效能。
型號 | 類型 | 能力 |
---|---|---|
Llama-4-Scout-17B-16E-Instruct | 聊天完成 | - 輸入: 文字和影像(128,000 個令牌) - 輸出: 文字(8,192 個令牌) - 工具呼叫: 否 - 回應格式: 文字 |
Llama 4-Maverick-17B-128E-Instruct-FP8 | 聊天完成 | - 輸入: 文字和影像(128,000 個令牌) - 輸出: 文字(8,192 個令牌) - 工具呼叫: 否 - 回應格式: 文字 |
Llama-3.3-70B-教學 | 聊天完成 | - 輸入: 文字(128,000 個詞元) - 輸出: 文字(8,192 個令牌) - 工具呼叫: 否 - 回應格式: 文字 |
Llama-3.2-90B-Vision-Instruct | 聊天完成 (含影像) | - 輸入: 文字和影像(128,000 個令牌) - 輸出: 文字(8,192 個令牌) - 工具呼叫: 否 - 回應格式: 文字 |
Llama-3.2-11B-Vision-Instruct (英文) | 聊天完成 (含影像) | - 輸入: 文字和影像(128,000 個令牌) - 輸出: 文字(8,192 個令牌) - 工具呼叫: 否 - 回應格式: 文字 |
Meta-Llama-3.1-8B-Instruct | 聊天完成 | - 輸入: 文字(131,072 個詞元) - 輸出: 文字(8,192 個令牌) - 工具呼叫: 否 - 回應格式: 文字 |
Meta-Llama-3.1-405B-Instruct (英文) | 聊天完成 | - 輸入: 文字(131,072 個詞元) - 輸出: 文字(8,192 個令牌) - 工具呼叫: 否 - 回應格式: 文字 |
Meta-Llama-3.1-70B-Instruct (已棄用) | 聊天完成 | - 輸入: 文字(131,072 個詞元) - 輸出: 文字(8,192 個令牌) - 工具呼叫: 否 - 回應格式: 文字 |
Meta-Llama-3-8B-Instruct (已棄用) | 聊天完成 | - 輸入: 文字(8,192 個字元) - 輸出: 文字(8,192 個令牌) - 工具呼叫: 否 - 回應格式: 文字 |
Meta-Llama-3-70B-Instruct (已棄用) | 聊天完成 | - 輸入: 文字(8,192 個字元) - 輸出: 文字(8,192 個令牌) - 工具呼叫: 否 - 回應格式: 文字 |
請參閱 Azure AI Foundry 入口網站中的此模型集合。
推斷範例:Meta Llama
如需如何使用Meta Llama模型的詳細資訊,請參閱下列範例:
說明 | 語言 | 範例 |
---|---|---|
CURL 要求 | Bash | 連結 |
適用於 C 的 Azure AI 推斷套件# | C# | 連結 |
適用於 JavaScript 的 Azure AI 推斷套件 | JavaScript | 連結 |
適用於 Python 的 Azure AI 推斷套件 | Python(程式語言) | 連結 |
Python Web 要求 | Python(程式語言) | 連結 |
OpenAI SDK (實驗性) | Python(程式語言) | 連結 |
LangChain | Python(程式語言) | 連結 |
LiteLLM | Python(程式語言) | 連結 |
微軟
Microsoft模型包括各種模型群組,例如 MAI 模型、Phi 模型、醫療保健 AI 模型等等。 若要查看所有可用的Microsoft模型,請在 Azure AI Foundry 入口網站中檢視Microsoft模型集合。
型號 | 類型 | 能力 |
---|---|---|
MAI-DS-R1 | 具有推理內容的聊天完成 | - 輸入: 文字(163,840 個令牌) - 輸出: 文字(163,840 個令牌) - 工具呼叫: 否 - 回應格式: 文字。 |
Phi-4-reasoning | 具有推理內容的聊天完成 | - 輸入: 文字(32768 標籤) - 輸出: 文字(32768 令牌) - 工具呼叫: 否 - 回應格式: 文字 |
Phi-4-mini-reasoning | 具有推理內容的聊天完成 | - 輸入: 文字(128,000 個詞元) - 輸出: 文字(128,000 個片段) - 工具呼叫: 否 - 回應格式: 文字 |
Phi-4-multimodal-instruct | 聊天完成 (含影像和音訊內容) | - 輸入: 文字、影像和音訊(131,072 令牌) - 輸出: 文字(4,096 個令牌) - 工具呼叫: 否 - 回應格式: 文字 |
Phi-4-mini-說明 | 聊天完成 | - 輸入: 文字(131,072 個詞元) - 輸出: 文字(4,096 個令牌) - 工具呼叫: 否 - 回應格式: 文字 |
Phi-4 | 聊天完成 | - 輸入: 文字(16,384 個令牌) - 輸出: 文字(16,384 個令牌) - 工具呼叫: 否 - 回應格式: 文字 |
Phi-3.5-mini-instruct | 聊天完成 | - 輸入: 文字(131,072 個詞元) - 輸出: 文字(4,096 個令牌) - 工具呼叫: 否 - 回應格式: 文字 |
Phi-3.5-MoE-教學 | 聊天完成 | - 輸入: 文字(131,072 個詞元) - 輸出: 文字(4,096 個令牌) - 工具呼叫: 否 - 回應格式: 文字 |
Phi-3.5-vision-instruct (英文) | 聊天完成 (含影像) | - 輸入: 文字和影像 (131,072 令牌) - 輸出: 文字(4,096 個令牌) - 工具呼叫: 否 - 回應格式: 文字 |
Phi-3-mini-128k-instruct (英文) | 聊天完成 | - 輸入: 文字(131,072 個詞元) - 輸出: 文字(4,096 個令牌) - 工具呼叫: 否 - 回應格式: 文字 |
Phi-3-mini-4k-Instruct | 聊天完成 | - 輸入: 文字(4,096 個字元) - 輸出: 文字(4,096 個令牌) - 工具呼叫: 否 - 回應格式: 文字 |
Phi-3-small-128k-instruct | 聊天完成 | - 輸入: 文字(131,072 個詞元) - 輸出: 文字(4,096 個令牌) - 工具呼叫: 否 - 回應格式: 文字 |
Phi-3-small-8k-instruct | 聊天完成 | - 輸入: 文字(131,072 個詞元) - 輸出: 文字(4,096 個令牌) - 工具呼叫: 否 - 回應格式: 文字 |
Phi-3-medium-128k-instruct | 聊天完成 | - 輸入: 文字(131,072 個詞元) - 輸出: 文字(4,096 個令牌) - 工具呼叫: 否 - 回應格式: 文字 |
Phi-3-medium-4k-instruct (英文) | 聊天完成 | - 輸入: 文字(4,096 個字元) - 輸出: 文字(4,096 個令牌) - 工具呼叫: 否 - 回應格式: 文字 |
推斷範例:Microsoft模型
如需如何使用Microsoft模型的詳細資訊,請參閱下列範例:
說明 | 語言 | 範例 |
---|---|---|
適用於 C 的 Azure AI 推斷套件# | C# | 連結 |
適用於 JavaScript 的 Azure AI 推斷套件 | JavaScript | 連結 |
適用於 Python 的 Azure AI 推斷套件 | Python(程式語言) | 連結 |
LangChain | Python(程式語言) | 連結 |
Llama-Index | Python(程式語言) | 連結 |
請參閱 Azure AI Foundry 入口網站中的Microsoft模型集合。
米斯特拉爾人工智慧
Mistral AI 提供兩種模型類別,即:
- 進階模型:這些模型包括Mistral Large、Mistral Small、Mistral-OCR-2503、Mistral Medium 3 (25.05)和 Ministral 3B 模型,並且可透過隨用隨付令牌計費作為無伺服器 API。
- 開放式模型:這些包括 Mistral-small-2503、Codestral 和 Mistral Nemo(以令牌計費的隨需無伺服器 API 提供),以及 Mixtral-8x7B-Instruct-v01、Mixtral-8x7B-v01、Mistral-7B-Instruct-v01 和 Mistral-7B-v01(可在自行裝載的管理端點上下載並執行)。
型號 | 類型 | 能力 |
---|---|---|
Codestral-2501 | 聊天完成 | - 輸入: 文字(262,144 個詞元) - 輸出: 文字(4,096 個令牌) - 工具呼叫: 否 - 回應格式: 文字 |
Ministral-3B | 聊天完成 | - 輸入: 文字(131,072 個詞元) - 輸出: 文字(4,096 個令牌) - 工具呼叫: 是 - 回應格式: 文字、JSON |
Mistral-Nemo | 聊天完成 | - 輸入: 文字(131,072 個詞元) - 輸出: 文字(4,096 個令牌) - 工具呼叫: 是 - 回應格式: 文字、JSON |
Mistral-Large-2411 | 聊天完成 | - 輸入: 文字(128,000 個詞元) - 輸出: 文字(4,096 個令牌) - 工具呼叫: 是 - 回應格式: 文字、JSON |
Mistral-large-2407 (已淘汰) |
聊天完成 | - 輸入: 文字(131,072 個詞元) - 輸出: 文字(4,096 個令牌) - 工具呼叫: 是 - 回應格式: 文字、JSON |
Mistral-large (已淘汰) |
聊天完成 | - 輸入: 文字(32,768 個令牌) - 輸出: 文字(4,096 個令牌) - 工具呼叫: 是 - 回應格式: 文字、JSON |
Mistral-medium-2505 | 聊天完成 | - 輸入: 文字(128,000 個令牌),影像 - 輸出: 文字(128,000 個片段) - 工具呼叫: 否 - 回應格式: 文字、JSON |
Mistral-OCR-2503 | 影像到文字 | - 輸入: 影像或 PDF 頁面(1,000 頁,最大 50 MB PDF 檔案) - 輸出: 文字 - 工具呼叫: 否 - 回應格式: Text、JSON、Markdown |
Mistral-small-2503 | 聊天完成 (含影像) | - 輸入: 文字和影像(131,072 個標記), 圖像型標記尺寸為 16 像素 x 16 像素 原始影像的區塊 - 輸出: 文字(4,096 個令牌) - 工具呼叫: 是 - 回應格式: 文字、JSON |
Mistral-small | 聊天完成 | - 輸入: 文字(32,768 個令牌) - 輸出: 文字(4,096 個令牌) - 工具呼叫: 是 - 回應格式: 文字、JSON |
請參閱 Azure AI Foundry 入口網站中的此模型集合。
推斷範例:Mistral
如需如何使用 Mistral 模型的更多範例,請參閱下列範例和教學課程:
說明 | 語言 | 範例 |
---|---|---|
CURL 要求 | Bash | 連結 |
適用於 C 的 Azure AI 推斷套件# | C# | 連結 |
適用於 JavaScript 的 Azure AI 推斷套件 | JavaScript | 連結 |
適用於 Python 的 Azure AI 推斷套件 | Python(程式語言) | 連結 |
Python Web 要求 | Python(程式語言) | 連結 |
OpenAI SDK (實驗性) | Python(程式語言) | Mistral - OpenAI SDK 範例 |
LangChain | Python(程式語言) | Mistral - LangChain 範例 |
米斯特拉爾人工智慧 | Python(程式語言) | Mistral - Mistral AI 範例 |
LiteLLM | Python(程式語言) | Mistral - LiteLLM 範例 |
Nixtla
Nixtla 的 TimeGEN-1 是時間序列數據的產生性預先定型預測和異常偵測模型。 TimeGEN-1 可以針對新的時間序列產生精確的預測而不需要訓練,僅使用歷史值和外生共變數作為輸入。
若要執行推斷,TimeGEN-1 會要求您使用 Nixtla 的自定義推斷 API。
型號 | 類型 | 能力 | 推斷 API |
---|---|---|---|
TimeGEN-1 | 預測 | - 輸入: 時間序列資料作為 JSON 或資料框架(支援多重變數輸入) - 輸出: JSON 格式的時序數據 - 工具呼叫: 否 - 回應格式: JSON |
預測用戶端與 Nixtla 的 API 互動 |
估計所需的代幣數量
建立 TimeGEN-1 部署之前,估計您打算取用和計費的權杖數目相當實用。 一個代幣對應於您的輸入資料集或輸出資料集中的一個資料點。
假設您有下列輸入時間序列資料集:
唯一識別碼 | 時間戳 | 目標變數 | 外生變數 1 | 外生變數 2 |
---|---|---|---|---|
BE | 2016-10-22 00:00:00 | 70.00 | 49593.0 | 57253.0 |
BE | 2016-10-22 01:00:00 | 37.10 | 46073.0 | 51887.0 |
若要判斷權杖數目,請將資料列數 (在此範例中為 2) 與用於預測的資料行數—不計算 unique_id 和時間戳記資料 (在此範例中為 3) 相乘,以取得總共六個權杖。
假設下列輸出資料集:
唯一識別碼 | 時間戳 | 預測的目標變數 |
---|---|---|
BE | 2016-10-22 02:00:00 | 46.57 |
BE | 2016-10-22 03:00:00 | 48.57 |
您也可以透過計算資料預測後返回的資料點數量來確定代幣數量。 在此範例中,字元的數目為兩個。
根據代幣估算價格
有四個定價計量可決定您支付的價格。 這些計量如下所示:
價格測量儀 | 說明 |
---|---|
paygo-inference-input-tokens | 當 finetune_steps = 0 時,與用做推斷輸入的權杖相關聯的成本 |
paygo-inference-output-tokens | 當 finetune_steps = 0 時,與做為推斷輸出的權杖相關聯的成本 |
paygo-finetuned-model-inference-input-tokens | 當 finetune_steps> 0 時,與用做推斷輸入的權杖相關聯的成本 |
paygo-finetuned-model-inference-output-tokens | 當 finetune_steps> 0 時,與作為推斷輸出的權杖相關聯的成本 |
請參閱 Azure AI Foundry 入口網站中的 Nixtla 模型集合。
NTT DATA
tsuzumi 是自動回歸語言優化轉換器。 微調版本會使用受監督的微調 (SFT)。 tsuzumi 會以高效率處理日文和英文。
型號 | 類型 | 能力 |
---|---|---|
tsuzumi-7b | 聊天完成 | - 輸入: 文字(8,192 個字元) - 輸出: 文字(8,192 個令牌) - 工具呼叫: 否 - 回應格式: 文字 |
穩定性 AI
Stability AI 的影像生成模型集合包括穩定影像核心、穩定影像 Ultra 和 Stable Diffusion 3.5 大型模型。 Stable Diffusion 3.5 Large 會允許影像和文字輸入。
型號 | 類型 | 能力 |
---|---|---|
Stable Diffusion 3.5 Large | 映射產生 | - 輸入: 文字和影像(1000 個令牌和 1 個影像) - 輸出: 1 個影像 - 工具呼叫: 否 - 回應格式:影像(PNG 和 JPG) |
穩定映像核心 | 映射產生 | - 輸入: 文字(1000 個令牌) - 輸出: 1 個影像 - 工具呼叫: 否 - 回應格式: 圖片 (PNG 和 JPG) |
穩定影像 Ultra | 映射產生 | - 輸入: 文字(1000 個令牌) - 輸出: 1 個影像 - 工具呼叫: 否 - 回應格式: 圖片 (PNG 和 JPG) |
xAI
xAI 的 Grok 3 和 Grok 3 迷你模型的設計目的是在各種企業領域表現優異。 Grok 3 是 Colossus 數據中心預先定型的非推理模型,專為商務使用案例量身打造,例如數據擷取、編碼和文字摘要,具有特殊的指示追蹤功能。 它支援 131,072 令牌內容視窗,允許它處理廣泛的輸入,同時維持一致性和深度,並特別擅長跨網域和語言繪製連線。 另一方面,Grok 3 Mini 是經過訓練的輕量型推理模型,可透過測試階段計算來解決代理程式、編碼、數學及深層科學方面的問題。 它也支援適用於理解程式碼基底和企業文件的 131,072 語彙基元內容視窗,並擅長在新環境中使用工具解決複雜的邏輯問題,提供原始推理追蹤,讓使用者在可調整的思考預算下進行檢查。
型號 | 類型 | 能力 |
---|---|---|
grok-3 | 聊天完成 | - 輸入: 文字(131,072 個詞元) - 輸出: 文字(131,072 個令牌) - 語言: en - 工具呼叫: 是 - 回應格式: 文字 |
grok-3-mini | 聊天完成 | - 輸入: 文字(131,072 個詞元) - 輸出: 文字(131,072 個令牌) - 語言: en - 工具呼叫: 是 - 回應格式: 文字 |
推斷範例:Stability AI
透過標準部署部署所部署的穩定性 AI 模型會在路由 /image/generations
上實作模型推斷 API。
如需如何使用穩定性 AI 模型的範例,請參閱下列範例:
- 使用 OpenAI SDK 搭配 Stability AI 模型,來執行文字轉影像的請求
- 針對文字轉影像的要求使用要求程式庫搭配 Stability AI 模型
- 使用要求程式庫搭配 Stable Diffusion 3.5 Large 進行影像轉影像的要求
- 完整編碼影像產生回應的範例