共用方式為


Azure AI 模型目錄的精選模型

Azure AI 模型目錄提供來自各種提供者的大量模型選擇。 您有多種選項可從模型目錄部署模型。 本文列出模型目錄中可透過標準部署在Microsoft伺服器上部署和裝載的功能模型。 針對其中一些模型,您也可以在基礎結構上裝載這些模型,以透過受控計算進行部署。 如需 支援的部署選項,請參閱可用的模型 ,以在目錄中尋找可透過受控計算或標準部署進行部署的模型。

若要對模型進行推斷,一些模型,例如 Nixtla 的 TimeGEN-1Cohere rerank,需要您使用來自模型提供者的自定義 API。 其他支援推斷使用Azure AI 模型推斷。 您可以在 Azure AI 模型目錄中檢閱個別模型卡片,以找到更多有關個別模型的詳細數據。

顯示 Azure AI Foundry 模型目錄區段和可用模型的動畫。

AI21 Labs

Jamba 系列模型是 AI21 的量產級大型語言模型 (LLM),採用 AI21 的混合式 Mamba-Transformer 架構。 這是 AI21 混合式結構化狀態空間模型 (SSM) 轉換器 Jamba 模型的指令微調版本。 Jamba 系列模型的建置目的是在商業用途上提供可靠的品質和效能。

型號 類型 能力
AI21-Jamba-1.5-Mini 聊天完成 - 輸入: 文字(262,144 標記)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫: 是的
- 回應格式: 文字、JSON、結構化輸出
AI21-Jamba-1.5-Large 聊天完成 - 輸入: 文字(262,144 標記)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫: 是的
- 回應格式: 文字、JSON、結構化輸出

請參閱 Azure AI 模型目錄中的此模型集合

Azure OpenAI

Azure AI Foundry Models 中的 Azure OpenAI 提供一組具有不同功能和價位的各種模型。 這些模型包括:

  • 最先進的模型被設計用來加強專注力和能力,並專注於解決推理和問題解決任務。
  • 可瞭解併產生自然語言和程序代碼的模型
  • 可將語音轉譯和翻譯為文字的模型
型號 類型 能力
o3-mini 聊天完成 - 輸入: 文字和影像 (200,000 個令牌)
- 輸出: 文字(100,000 個令牌)
- 工具呼叫: 是的
- 回應格式: 文字、JSON、結構化輸出
o1 聊天完成 (含影像) - 輸入: 文字和影像 (200,000 個令牌)
- 輸出: 文字(100,000 個令牌)
- 工具呼叫: 是的
- 回應格式: 文字、JSON、結構化輸出
o1-preview 聊天完成 - 輸入: 文字(128,000 個字元)
- 輸出: 文字(32,768 個令牌)
- 工具呼叫: 是的
- 回應格式: 文字、JSON、結構化輸出
o1-mini 聊天完成 - 輸入: 文字(128,000 個字元)
- 輸出: 文字(65,536 個令牌)
- 工具呼叫:
- 回應格式: 純文字
gpt-4o-realtime-preview 即時 - 輸入: 控制項、文字和音訊(131,072 標記)
- 輸出: 文字和音訊 (16,384 標記)
- 工具呼叫: 是的
- 回應格式: 文字、JSON
gpt-4o 聊天完成 (含影像和音訊內容) - 輸入: 文字、影像和音訊 (131,072 標記)
- 輸出: 文字(16,384 個令牌)
- 工具呼叫: 是的
- 回應格式: 文字、JSON、結構化輸出
gpt-4o-mini 聊天完成 (含影像和音訊內容) - 輸入: 文字、影像和音訊 (131,072 標記)
- 輸出: 文字(16,384 個令牌)
- 工具呼叫: 是的
- 回應格式: 文字、JSON、結構化輸出
text-embedding-3-large (文本嵌入-3-大型) 內嵌 - 輸入: 文字 (8,191 標記)
- 輸出: 向量 (3,072 維度)
text-embedding-3-small 內嵌 - 輸入: 文字 (8,191 標記)
- 輸出: 向量 (1,536 dim.)

請參閱 Azure AI 模型目錄中的此模型集合

Cohere

Cohere 系列模型包括為各種不同使用案例而優化的模型,涵蓋排序調整、聊天補全,以及嵌入模型。

Cohere 命令和內嵌

下表列出您可以透過 Azure AI 模型推斷推斷的 Cohere 模型。

型號 類型 能力
Cohere-command-A 聊天完成 - 輸入: 文字(256,000 個字元)
- 輸出: 文字(8,000 個令牌)
- 工具呼叫: 是的
- 回應格式: 純文字
Cohere-command-r-plus-08-2024 聊天完成 - 輸入: 文字(131,072 個字元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫: 是的
- 回應格式: 文字、JSON
Cohere-command-r-08-2024 聊天完成 - 輸入: 文字(131,072 個字元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫: 是的
- 回應格式: 文字、JSON
Cohere-command-r-plus
(已淘汰)
聊天完成 - 輸入: 文字(131,072 個字元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫: 是的
- 回應格式: 文字、JSON
Cohere-command-r
(已淘汰)
聊天完成 - 輸入: 文字(131,072 個字元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫: 是的
- 回應格式: 文字、JSON
Cohere-embed-4 內嵌
image-embeddings
- 輸入: 影像、文字
- 輸出: 影像、文字(128,000 個令牌)
- 工具呼叫: 是的
- 回應格式: 影像、文字
Cohere-embed-v3-english 內嵌
image-embeddings
- 輸入: 文字 (512 標記)
- 輸出: 向量 (1,024 dim.)
Cohere-embed-v3-多語系 內嵌
image-embeddings
- 輸入: 文字 (512 標記)
- 輸出: 向量 (1,024 dim.)

推斷範例:Cohere 命令和內嵌

如需如何使用 Cohere 模型的詳細資訊,請參閱下列範例:

說明 語言 範例
Web 要求 Bash(命令行程式) Command-RCommand-R+
cohere-embed.ipynb
適用於 C 的 Azure AI 推斷套件# C# 連結
適用於 JavaScript 的 Azure AI 推斷套件 JavaScript 連結
適用於 Python 的 Azure AI 推斷套件 Python(程式語言) 連結
OpenAI SDK (實驗性) Python(程式語言) 連結
LangChain Python(程式語言) 連結
Cohere SDK Python(程式語言) 命令
嵌入
LiteLLM SDK Python(程式語言) 連結

擷取增強生成 (RAG) 和工具使用範例:Cohere 命令和內嵌

說明 套件 範例
使用 Cohere 內嵌建立本機 Facebook AI 相似性搜尋 (FAISS) 向量索引 - Langchain langchainlangchain_cohere cohere_faiss_langchain_embed.ipynb
使用 Cohere Command R/R+ 回答本機 FAISS 向量索引的資料問題 - Langchain langchainlangchain_cohere command_faiss_langchain.ipynb
使用 Cohere Command R/R+ 回答 AI 搜尋向量索引的資料問題 - Langchain langchainlangchain_cohere cohere-aisearch-langchain-rag.ipynb (英文)
使用 Cohere Command R/R+ 回答 AI 搜尋向量索引的資料問題 - Cohere SDK cohereazure_search_documents cohere-aisearch-rag.ipynb (英文)
使用 LangChain 呼叫 Command R+ 工具/函式 coherelangchainlangchain_cohere command_tools-langchain.ipynb

Cohere 重新排序

下表列出 Cohere 重新排序模型。 若要使用這些重新調整模型執行推斷,您必須使用 Cohere 的自定義重新調整 API,這些 API 會列在資料表中。

型號 類型 推斷 API
Cohere-rerank-v3.5 rerank
文字分類
Cohere 的 v2/rerank API
Cohere-rerank-v3-英語版
(已淘汰)
rerank
文字分類
Cohere 的 v2/rerank API
Cohere 的 v1/rerank API
Cohere-rerank-v3-多語系
(已淘汰)
rerank
文字分類
Cohere 的 v2/rerank API
Cohere 的 v1/rerank API

Cohere 重新排序模型的價格

查詢不會與使用者的查詢混淆,是一種價格計量,其是指與用來推斷 Cohere Rerank 模型之權杖相關聯的成本。 Cohere 將單一搜尋單位視為包含最多 100 份文件需要排名的搜尋請求。 文件在包括搜尋查詢的長度後,若超過 500 個令牌(適用於 Cohere-rerank-v3.5)或超過 4096 個令牌(適用於 Cohere-rerank-v3-English 和 Cohere-rerank-v3-多語言),會被分割成多個區塊,其中每個區塊都被視作單一文件。

請參閱 Azure AI 模型目錄中的 Cohere 模型集合

Core42

Core42 包含自動迴歸的阿拉伯文及英文雙語 LLM,具備在阿拉伯文領域的最先進功能。

型號 類型 能力
jais-30b-chat 聊天完成 - 輸入: 文字(8,192 個標記)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫: 是的
- 回應格式: 文字、JSON

請參閱 Azure AI 模型目錄中的此模型集合

推斷範例:Core42

如需如何使用 Jais 模型的詳細資訊,請參閱下列範例:

說明 語言 範例
適用於 C 的 Azure AI 推斷套件# C# 連結
適用於 JavaScript 的 Azure AI 推斷套件 JavaScript 連結
適用於 Python 的 Azure AI 推斷套件 Python(程式語言) 連結

DeepSeek

DeepSeek 系列模型包括 DeepSeek-R1,其擅長使用逐步訓練程式進行推理工作,例如語言、科學推理和編碼工作、DeepSeek-V3-0324、混合專家(MoE) 語言模型等等。

型號 類型 能力
DeekSeek-V3-0324 聊天完成 - 輸入: 文字(131,072 個字元)
- 輸出: (131,072 個令牌)
- 工具呼叫:
- 回應格式: 文字、JSON
DeepSeek-V3
(舊版)
聊天完成 - 輸入: 文字(131,072 個字元)
- 輸出: 文字(131,072 個令牌)
- 工具呼叫:
- 回應格式: 文字、JSON
DeepSeek-R1 具有推理內容的聊天完成 - 輸入: 文字(163,840 個令牌)
- 輸出: 文字(163,840 個令牌)
- 工具呼叫:
- 回應格式: 文字。

如需 DeepSeek-R1 的教學課程,請參閱 教學課程:開始使用 Azure AI 模型推斷中的 DeepSeek-R1 推理模型

請參閱 Azure AI 模型目錄中的此模型集合

推斷範例:DeepSeek

如需如何使用 DeepSeek 模型的詳細資訊,請參閱下列範例:

說明 語言 範例
適用於 Python 的 Azure AI 推斷套件 Python(程式語言) 連結
適用於 JavaScript 的 Azure AI 推斷套件 JavaScript 連結
適用於 C 的 Azure AI 推斷套件# C# 連結
適用於 Java 的 Azure AI 推斷套件 爪哇島 連結

美達

Meta Llama 模型和工具是預先定型和微調的產生 AI 文字和影像推理模型的集合。 Meta 模型範圍可以調整以包含:

  • 例如應用於裝置和邊緣推斷的小型語言模型(SLM),包含 1B 和 3B 基礎模型及指令模型。
  • 中型大型語言模型(LLM),例如 7B、8B 和 70B 基底和指示模型
  • 高效能模型如 Meta Llama 3.1-405B 被用於合成資料生成和提煉使用案例。
  • 高效能的原生多模式模型,Llama 4 Scout 和 Llama 4 Maverick,會運用專家組合架構,來提供文字和影像理解方面領先業界的效能。
型號 類型 能力
Llama-4-Scout-17B-16E-教學 聊天完成 - 輸入: 文字和影像(128,000 個令牌)
- 輸出: 文字(8,192 個令牌)
- 工具呼叫: 是的
- 回應格式: 純文字
Llama 4-Maverick-17B-128E-指示-FP8 聊天完成 - 輸入: 文字和影像(128,000 個令牌)
- 輸出: 文字(8,192 個令牌)
- 工具呼叫: 是的
- 回應格式: 純文字
Llama-3.3-70B-教學 聊天完成 - 輸入: 文字(128,000 個字元)
- 輸出: 文字(8,192 個令牌)
- 工具呼叫:
- 回應格式: 純文字
Llama-3.2-90B-Vision-指導 聊天完成 (含影像) - 輸入: 文字和影像(128,000 個令牌)
- 輸出: 文字(8,192 個令牌)
- 工具呼叫:
- 回應格式: 純文字
Llama-3.2-11B-Vision-教學 聊天完成 (含影像) - 輸入: 文字和影像(128,000 個令牌)
- 輸出: 文字(8,192 個令牌)
- 工具呼叫:
- 回應格式: 純文字
Meta-Llama-3.1-8B-指令 聊天完成 - 輸入: 文字(131,072 個字元)
- 輸出: 文字(8,192 個令牌)
- 工具呼叫:
- 回應格式: 純文字
Meta-Llama-3.1-405B-指示 聊天完成 - 輸入: 文字(131,072 個字元)
- 輸出: 文字(8,192 個令牌)
- 工具呼叫:
- 回應格式: 純文字
Meta-Llama-3.1-70B-指導 (已淘汰) 聊天完成 - 輸入: 文字(131,072 個字元)
- 輸出: 文字(8,192 個令牌)
- 工具呼叫:
- 回應格式: 純文字
Meta-Llama-3-8B-教程(已淘汰) 聊天完成 - 輸入: 文字(8,192 個標記)
- 輸出: 文字(8,192 個令牌)
- 工具呼叫:
- 回應格式: 純文字
Meta-Llama-3-70B-Instruct (已棄用) 聊天完成 - 輸入: 文字(8,192 個標記)
- 輸出: 文字(8,192 個令牌)
- 工具呼叫:
- 回應格式: 純文字

請參閱 Azure AI 模型目錄中的此模型集合

推斷範例:Meta Llama

如需如何使用Meta Llama模型的詳細資訊,請參閱下列範例:

說明 語言 範例
CURL 要求 Bash(命令行程式) 連結
適用於 C 的 Azure AI 推斷套件# C# 連結
適用於 JavaScript 的 Azure AI 推斷套件 JavaScript 連結
適用於 Python 的 Azure AI 推斷套件 Python(程式語言) 連結
Python Web 要求 Python(程式語言) 連結
OpenAI SDK (實驗性) Python(程式語言) 連結
LangChain Python(程式語言) 連結
LiteLLM Python(程式語言) 連結

微軟

Microsoft模型包括各種模型群組,例如 MAI 模型、Phi 模型、醫療保健 AI 模型等等。 若要查看所有可用的Microsoft模型,請在 Azure AI Foundry 入口網站中檢視Microsoft模型集合

型號 類型 能力
MAI-DS-R1 具有推理內容的聊天完成 - 輸入: 文字(163,840 個令牌)
- 輸出: 文字(163,840 個令牌)
- 工具呼叫:
- 回應格式: 文字。
Phi-4-reasoning 具有推理內容的聊天完成 - 輸入: 文本(32768 字元)
- 輸出: 文字(32768 令牌)
- 工具呼叫:
- 回應格式: 純文字
Phi-4-迷你推理 具有推理內容的聊天完成 - 輸入: 文字(128,000 個字元)
- 輸出: 文字(128,000 個詞元)
- 工具呼叫:
- 回應格式: 純文字
Phi-4-multimodal-instruct 聊天完成 (含影像和音訊內容) - 輸入: 文字、影像和音訊(131,072 令牌)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 純文字
Phi-4-mini-說明 聊天完成 - 輸入: 文字(131,072 個字元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 純文字
Phi-4 聊天完成 - 輸入: 文字(16,384 個令牌)
- 輸出: 文字(16,384 個令牌)
- 工具呼叫:
- 回應格式: 純文字
Phi-3.5-mini-指令 聊天完成 - 輸入: 文字(131,072 個字元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 純文字
Phi-3.5-MoE-Instruct 聊天完成 - 輸入: 文字(131,072 個字元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 純文字
Phi-3.5-視覺-指示 聊天完成 (含影像) - 輸入: 文字和影像 (131,072 令牌)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 純文字
Phi-3-mini-128k-指令 聊天完成 - 輸入: 文字(131,072 個字元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 純文字
Phi-3-mini-4k-Instruct 聊天完成 - 輸入: 文字(4,096 個字元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 純文字
Phi-3-small-128k-instruct 聊天完成 - 輸入: 文字(131,072 個字元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 純文字
Phi-3-small-8k-指導 聊天完成 - 輸入: 文字(131,072 個字元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 純文字
Phi-3-medium-128k-instruct 聊天完成 - 輸入: 文字(131,072 個字元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 純文字
Phi-3-medium-4k-instruct 聊天完成 - 輸入: 文字(4,096 個字元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 純文字

推斷範例:Microsoft模型

如需如何使用Microsoft模型的詳細資訊,請參閱下列範例:

說明 語言 範例
適用於 C 的 Azure AI 推斷套件# C# 連結
適用於 JavaScript 的 Azure AI 推斷套件 JavaScript 連結
適用於 Python 的 Azure AI 推斷套件 Python(程式語言) 連結
LangChain Python(程式語言) 連結
Llama-Index Python(程式語言) 連結

請參閱 Azure AI 模型目錄中Microsoft模型集合

米斯特拉爾人工智慧

Mistral AI 提供兩種模型類別,即:

  • 進階模型:這些模型包括Mistral Large、Mistral Small、Mistral-OCR-2503、Mistral Medium 3 (25.05)和 Ministral 3B 模型,並且可透過隨用隨付令牌計費作為無伺服器 API。
  • 開放模型:這些包括 Mistral-small-2503、Codestral 和 Mistral Nemo(以按需使用、令牌計費的無伺服器 API 提供),以及 Mixtral-8x7B-指示-v01、Mixtral-8x7B-v01、Mistral-7B-指示-v01 和 Mistral-7B-v01(可在自我托管的管理端點上下載並執行)。
型號 類型 能力
Codestral-2501 聊天完成 - 輸入: 文字(262,144 標記)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 純文字
Ministral-3B 聊天完成 - 輸入: 文字(131,072 個字元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫: 是的
- 回應格式: 文字、JSON
Mistral-Nemo 聊天完成 - 輸入: 文字(131,072 個字元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫: 是的
- 回應格式: 文字、JSON
Mistral-Large-2411 聊天完成 - 輸入: 文字(128,000 個字元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫: 是的
- 回應格式: 文字、JSON
Mistral-large-2407
(已淘汰)
聊天完成 - 輸入: 文字(131,072 個字元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫: 是的
- 回應格式: 文字、JSON
Mistral-large
(已淘汰)
聊天完成 - 輸入: 文字(32,768 個令牌)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫: 是的
- 回應格式: 文字、JSON
Mistral-medium-2505 聊天完成 - 輸入: 文字(128,000 個令牌),影像
- 輸出: 文字(128,000 個詞元)
- 工具呼叫:
- 回應格式: 文字、JSON
Mistral-OCR-2503 影像到文字 - 輸入: 影像或 PDF 頁面(1,000 頁,最大 50 MB PDF 檔案)
- 輸出: 文字
- 工具呼叫:
- 回應格式: Text、JSON、Markdown
Mistral-small-2503 聊天完成 (含影像) - 輸入: 文字和影像(131,072 個標記),
圖像型標記為 16px x 16px
原始影像的區塊
- 輸出: 文字(4,096 個令牌)
- 工具呼叫: 是的
- 回應格式: 文字、JSON
Mistral-small 聊天完成 - 輸入: 文字(32,768 個令牌)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫: 是的
- 回應格式: 文字、JSON

請參閱 Azure AI 模型目錄中的此模型集合

推斷範例:Mistral

如需如何使用 Mistral 模型的更多範例,請參閱下列範例和教學課程:

說明 語言 範例
CURL 要求 Bash(命令行程式) 連結
適用於 C 的 Azure AI 推斷套件# C# 連結
適用於 JavaScript 的 Azure AI 推斷套件 JavaScript 連結
適用於 Python 的 Azure AI 推斷套件 Python(程式語言) 連結
Python Web 要求 Python(程式語言) 連結
OpenAI SDK (實驗性) Python(程式語言) Mistral - OpenAI SDK 範例
LangChain Python(程式語言) Mistral - LangChain 範例
米斯特拉爾人工智慧 Python(程式語言) Mistral - Mistral AI 範例
LiteLLM Python(程式語言) Mistral - LiteLLM 範例

Nixtla

Nixtla 的 TimeGEN-1 是時間序列數據的產生性預先定型預測和異常偵測模型。 TimeGEN-1 可以針對新的時間序列產生精確的預測而不需要定型,請只使用歷史值和外質共變數作為輸入。

若要執行推斷,TimeGEN-1 會要求您使用 Nixtla 的自定義推斷 API。

型號 類型 能力 推斷 API
TimeGEN-1 預測 - 輸入: 時間序列資料作為 JSON 或資料框架(支援多重變數輸入)
- 輸出:時間序列資料作為 JSON
- 工具呼叫:
- 回應格式: JSON
預測用戶端與 Nixtla 的 API 互動

估計所需的權杖數目

在您建立 TimeGEN-1 部署之前,先估算您預計使用以及計費的令牌數量是很有幫助的。 一個權杖對應至輸入資料集或輸出資料集中的一個資料點。

假設您有下列輸入時間序列資料集:

唯一識別碼 時間戳 目標變數 外質共變數 1 外質共變數 2
2016-10-22 00:00:00 70.00 49593.0 57253.0
2016-10-22 01:00:00 37.10 46073.0 51887.0

若要判斷權杖數目,請將資料列數 (在此範例中為 2) 與用於預測的資料行數—不計算 unique_id 和時間戳記資料 (在此範例中為 3) 相乘,以取得總共六個權杖。

假設下列輸出資料集:

唯一識別碼 時間戳 預測的目標變數
2016-10-22 02:00:00 46.57
2016-10-22 03:00:00 48.57

您也可以計算資料預測之後傳回的資料點數目,以判斷權杖數目。 在此範例中,權杖數目為兩個。

根據權杖估計定價

有四個定價計量可決定您支付的價格。 這些計量如下所示:

定價計量 說明
paygo-inference-input-tokens (即付即用之推理輸入標記) finetune_steps = 0 時,與用做推斷輸入的權杖相關聯的成本
paygo-inference-輸出-標記 finetune_steps = 0 時,與做為推斷輸出的權杖相關聯的成本
累計支付微調模型推論輸入令牌 finetune_steps> 0 時,與用做推斷輸入的權杖相關聯的成本
paygo-微調模型推理輸出tokens finetune_steps> 0 時,與作為推斷輸出的權杖相關聯的成本

請參閱 Azure AI 模型目錄中的 Nixtla 模型集合

NTT DATA

tsuzumi 是自動回歸語言優化轉換器。 微調版本會使用受監督的微調 (SFT)。 tsuzumi 會以高效率處理日文和英文。

型號 類型 能力
tsuzumi-7b 聊天完成 - 輸入: 文字(8,192 個標記)
- 輸出: 文字(8,192 個令牌)
- 工具呼叫:
- 回應格式: 純文字

穩定性 AI

Stability AI 的影像生成模型系列包括穩定影像核心、穩定影像 Ultra 和穩定擴散 3.5 大型。 穩定擴散 3.5 大型允許影像和文字輸入。

型號 類型 能力
穩定擴散 3.5 大型版 映射產生 - 輸入: 文字和影像(1000 個令牌和 1 個影像)
- 輸出: 1 個影像
- 工具呼叫:
- 回應格式:影像(PNG 和 JPG)
穩定映像核心 映射產生 - 輸入: 文字(1000 個令牌)
- 輸出: 1 個影像
- 工具呼叫:
- 回應格式: 圖片 (PNG 和 JPG)
穩定影像 Ultra 映射產生 - 輸入: 文字(1000 個令牌)
- 輸出: 1 個影像
- 工具呼叫:
- 回應格式: 圖片 (PNG 和 JPG)

推斷範例:Stability AI

穩定性 AI 模型被部署到標準環境時,會在路由 /image/generations上使用 Azure AI 模型推論 API。 如需如何使用穩定性 AI 模型的範例,請參閱下列範例: