共用方式為


適用於標準部署的 Azure AI Foundry 模型

Azure AI 模型目錄提供來自各種提供者的大量 Azure AI Foundry 模型。 您有各個選項可從模型目錄部署模型。 本文列出可透過標準部署部署的 Azure AI Foundry 模型。 針對其中一些模型,您也可以在基礎結構上裝載這些模型,以透過受控計算進行部署。

這很重要

處於預覽狀態的模型會在模型目錄中的模型卡片上標示為 預覽

若要使用模型執行推斷,Nixtla's TimeGEN-1Cohere rerank 之類的一些模型需要您使用來自模型提供者的自訂 API。 其他支援使用 模型推斷 API 進行推斷。 您可以在 Azure AI Foundry 入口網站的模型目錄中檢閱其模型卡片,以找到個別模型的詳細數據。

顯示 Azure AI Foundry 模型目錄區段和可用模型的動畫。

AI21 Labs

Jamba 系列模型是 AI21 的量產級大型語言模型 (LLM),採用 AI21 的混合式 Mamba-Transformer 架構。 這是 AI21 混合式結構化狀態空間模型 (SSM) 轉換器 Jamba 模型的指令微調版本。 Jamba 系列模型的建置目的是在商業用途上提供可靠的品質和效能。

型號 類型 能力
AI21-Jamba-1.5-Mini 聊天完成 - 輸入: 文字(262,144 個詞元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字、JSON、結構化輸出
AI21-Jamba-1.5-Large 聊天完成 - 輸入: 文字(262,144 個詞元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字、JSON、結構化輸出

請參閱 Azure AI Foundry 入口網站中的此模型集合。

Azure OpenAI

Foundry 模型中的 Azure OpenAI 提供一組不同功能和價格點的多樣化模型。 這些模型包括:

  • 最先進的模型被設計用來加強專注力和能力,並專注於解決推理和問題解決任務。
  • 可瞭解併產生自然語言和程序代碼的模型
  • 可將語音轉譯和翻譯為文字的模型
型號 類型 能力
o3-mini 聊天完成 - 輸入: 文字和影像 (200,000 個令牌)
- 輸出: 文字(100,000 個令牌)
- 工具呼叫:
- 回應格式: 文字、JSON、結構化輸出
o1 聊天完成 (含影像) - 輸入: 文字和影像 (200,000 個令牌)
- 輸出: 文字(100,000 個令牌)
- 工具呼叫:
- 回應格式: 文字、JSON、結構化輸出
o1-preview 聊天完成 - 輸入: 文字(128,000 個詞元)
- 輸出: 文字(32,768 個令牌)
- 工具呼叫:
- 回應格式: 文字、JSON、結構化輸出
o1-mini 聊天完成 - 輸入: 文字(128,000 個詞元)
- 輸出: 文字(65,536 個令牌)
- 工具呼叫:
- 回應格式: 文字
gpt-4o-realtime-preview 即時 - 輸入: 控制項、文字和音訊(131,072 標記)
- 輸出: 文字和音訊 (16,384 標記)
- 工具呼叫:
- 回應格式: 文字、JSON
gpt-4o 聊天完成 (含影像和音訊內容) - 輸入: 文字、影像和音訊 (131,072 標記)
- 輸出: 文字(16,384 個令牌)
- 工具呼叫:
- 回應格式: 文字、JSON、結構化輸出
gpt-4o-mini 聊天完成 (含影像和音訊內容) - 輸入: 文字、影像和音訊 (131,072 標記)
- 輸出: 文字(16,384 個令牌)
- 工具呼叫:
- 回應格式: 文字、JSON、結構化輸出
text-embedding-3-large (英文) 內嵌 - 輸入: 文字 (8,191 標記)
- 輸出:向量 (3,072 個維度)
text-embedding-3-small 內嵌 - 輸入: 文字 (8,191 標記)
- 輸出: 向量 (1,536 dim.)

請參閱 Azure AI Foundry 入口網站中的此模型集合。

Cohere

Cohere 系列模型包含針對不同使用案例優化的多種模型,包括重新排序、聊天生成,以及嵌入模型。

Cohere 命令和內嵌

下表列出您可以透過模型推斷 API 推斷的 Cohere 模型。

型號 類型 能力
Cohere-command-A 聊天完成 - 輸入: 文字(256000 標記)
- 輸出: 文字(8,000 個令牌)
- 工具呼叫:
- 回應格式: 文字
Cohere-command-r-plus-08-2024 聊天完成 - 輸入: 文字(131,072 個詞元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字、JSON
Cohere-command-r-08-2024 聊天完成 - 輸入: 文字(131,072 個詞元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字、JSON
Cohere-command-r-plus (英文)
(已淘汰)
聊天完成 - 輸入: 文字(131,072 個詞元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字、JSON
Cohere-command-r
(已淘汰)
聊天完成 - 輸入: 文字(131,072 個詞元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字、JSON
Cohere-embed-v-4 內嵌
image-embeddings
- 輸入: 影像、文字
- 輸出: 影像、文字(128,000 個令牌)
- 工具呼叫:
- 回應格式: 影像、文字
Cohere-embed-v3-english 內嵌
image-embeddings
- 輸入: 文字 (512 標記)
- 輸出: 向量 (1,024 dim.)
Cohere-embed-v3-多語系 內嵌
image-embeddings
- 輸入: 文字 (512 標記)
- 輸出: 向量 (1,024 dim.)

推斷範例:Cohere 命令和內嵌

如需如何使用 Cohere 模型的詳細資訊,請參閱下列範例:

說明 語言 範例
Web 要求 Bash Command-RCommand-R+
cohere-embed.ipynb
適用於 C 的 Azure AI 推斷套件# C# 連結
適用於 JavaScript 的 Azure AI 推斷套件 JavaScript 連結
適用於 Python 的 Azure AI 推斷套件 Python(程式語言) 連結
OpenAI SDK (實驗性) Python(程式語言) 連結
LangChain Python(程式語言) 連結
Cohere SDK Python(程式語言) 命令
嵌入
LiteLLM SDK Python(程式語言) 連結

擷取增強生成 (RAG) 和工具使用範例:Cohere 命令和內嵌

說明 封裝 範例
使用 Cohere 內嵌建立本機 Facebook AI 相似性搜尋 (FAISS) 向量索引 - Langchain langchainlangchain_cohere cohere_faiss_langchain_embed.ipynb
使用 Cohere Command R/R+ 回答本機 FAISS 向量索引的資料問題 - Langchain langchainlangchain_cohere command_faiss_langchain.ipynb
使用 Cohere Command R/R+ 從 AI 搜尋向量索引中的資料回答問題 - Langchain langchainlangchain_cohere cohere-aisearch-langchain-rag.ipynb (英文)
使用 Cohere Command R/R+ 回答 AI 搜尋向量索引的資料問題 - Cohere SDK cohereazure_search_documents cohere-aisearch-rag.ipynb (英文)
使用 LangChain 呼叫 Command R+ 工具/函式 coherelangchainlangchain_cohere command_tools-langchain.ipynb

Cohere 重新排序

下表列出 Cohere 重新排序模型。 若要使用這些重新調整模型執行推斷,您必須使用 Cohere 的自定義重新調整 API,這些 API 會列在資料表中。

型號 類型 推斷 API
Cohere-rerank-v3.5 rerank
文字分類
Cohere 的 v2/rerank API
Cohere-rerank-v3-英語版
(已淘汰)
rerank
文字分類
Cohere 的 v2/rerank API
Cohere 的 v1/rerank API
Cohere-rerank-v3-multilingual
(已淘汰)
rerank
文字分類
Cohere 的 v2/rerank API
Cohere 的 v1/rerank API

Cohere 重新排序模型的價格

查詢不會與使用者的查詢混淆,是一種價格計量,其是指與用來推斷 Cohere Rerank 模型之權杖相關聯的成本。 Cohere 將單一搜尋單位計算為具有要排名的最多 100 份文件的查詢。 包括搜尋查詢的長度時,超過 500 個權杖 (針對 Cohere-rerank-v3.5) 或超過 4096 個權杖 (針對 Cohere-rerank-v3-English 和 Cohere-rerank-v3-multilingual) 的文件會分割成多個區塊,其中的每個區塊都會計算為單一文件。

請參閱 Azure AI Foundry 入口網站中的 Cohere 模型集合

Core42

Core42 包含自動迴歸的阿拉伯文及英文雙語 LLM,具備在阿拉伯文領域的最先進功能。

型號 類型 能力
jais-30b-chat (英文) 聊天完成 - 輸入: 文字(8,192 個字元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字、JSON

請參閱 Azure AI Foundry 入口網站中的此模型集合。

推斷範例:Core42

如需如何使用 Jais 模型的詳細資訊,請參閱下列範例:

說明 語言 範例
適用於 C 的 Azure AI 推斷套件# C# 連結
適用於 JavaScript 的 Azure AI 推斷套件 JavaScript 連結
適用於 Python 的 Azure AI 推斷套件 Python(程式語言) 連結

DeepSeek

DeepSeek 系列模型包括 DeepSeek-R1,其擅長使用逐步訓練程式進行推理工作,例如語言、科學推理和編碼工作、DeepSeek-V3-0324、混合專家(MoE) 語言模型等等。

型號 類型 能力
DeepSeek-R1-0528
具有推理內容的聊天完成 - 輸入: 文字(163,840 個令牌)
- 輸出: 文字(163,840 個令牌)
- 語言:enzh
- 工具呼叫:
- 回應格式: 文字
DeekSeek-V3-0324 聊天完成 - 輸入: 文字(131,072 個詞元)
- 輸出: (131,072 個令牌)
- 工具呼叫:
- 回應格式: 文字、JSON
DeepSeek-V3
(遺產)
聊天完成 - 輸入: 文字(131,072 個詞元)
- 輸出: 文字(131,072 個令牌)
- 工具呼叫:
- 回應格式: 文字、JSON
DeepSeek-R1 具有推理內容的聊天完成 - 輸入: 文字(163,840 個令牌)
- 輸出: 文字(163,840 個令牌)
- 工具呼叫:
- 回應格式: 文字。

如需 DeepSeek-R1 的教學課程,請參閱 教學課程:開始使用 Foundry 模型中的 DeepSeek-R1 推理模型

請參閱 Azure AI Foundry 入口網站中的此模型集合。

推斷範例:DeepSeek

如需如何使用 DeepSeek 模型的詳細資訊,請參閱下列範例:

說明 語言 範例
適用於 Python 的 Azure AI 推斷套件 Python(程式語言) 連結
適用於 JavaScript 的 Azure AI 推斷套件 JavaScript 連結
適用於 C 的 Azure AI 推斷套件# C# 連結
適用於 Java 的 Azure AI 推斷套件 爪哇島 連結

美達

Meta Llama 模型和工具是預先定型和微調的產生 AI 文字和影像推理模型的集合。 Meta 模型範圍可以調整以包含:

  • 例如應用於裝置和邊緣推斷的小型語言模型(SLM),包含 1B 和 3B 基礎模型及指令模型。
  • 中型大型語言模型(LLM),例如 7B、8B 和 70B 基底和指示模型
  • 高效能模型如 Meta Llama 3.1-405B 被用於合成資料生成和提煉使用案例。
  • 高效能的原生多模式模型,Llama 4 Scout 和 Llama 4 Maverick,會運用專家組合架構,來提供文字和影像理解方面領先業界的效能。
型號 類型 能力
Llama-4-Scout-17B-16E-Instruct 聊天完成 - 輸入: 文字和影像(128,000 個令牌)
- 輸出: 文字(8,192 個令牌)
- 工具呼叫:
- 回應格式: 文字
Llama 4-Maverick-17B-128E-Instruct-FP8 聊天完成 - 輸入: 文字和影像(128,000 個令牌)
- 輸出: 文字(8,192 個令牌)
- 工具呼叫:
- 回應格式: 文字
Llama-3.3-70B-教學 聊天完成 - 輸入: 文字(128,000 個詞元)
- 輸出: 文字(8,192 個令牌)
- 工具呼叫:
- 回應格式: 文字
Llama-3.2-90B-Vision-Instruct 聊天完成 (含影像) - 輸入: 文字和影像(128,000 個令牌)
- 輸出: 文字(8,192 個令牌)
- 工具呼叫:
- 回應格式: 文字
Llama-3.2-11B-Vision-Instruct (英文) 聊天完成 (含影像) - 輸入: 文字和影像(128,000 個令牌)
- 輸出: 文字(8,192 個令牌)
- 工具呼叫:
- 回應格式: 文字
Meta-Llama-3.1-8B-Instruct 聊天完成 - 輸入: 文字(131,072 個詞元)
- 輸出: 文字(8,192 個令牌)
- 工具呼叫:
- 回應格式: 文字
Meta-Llama-3.1-405B-Instruct (英文) 聊天完成 - 輸入: 文字(131,072 個詞元)
- 輸出: 文字(8,192 個令牌)
- 工具呼叫:
- 回應格式: 文字
Meta-Llama-3.1-70B-Instruct (已棄用) 聊天完成 - 輸入: 文字(131,072 個詞元)
- 輸出: 文字(8,192 個令牌)
- 工具呼叫:
- 回應格式: 文字
Meta-Llama-3-8B-Instruct (已棄用) 聊天完成 - 輸入: 文字(8,192 個字元)
- 輸出: 文字(8,192 個令牌)
- 工具呼叫:
- 回應格式: 文字
Meta-Llama-3-70B-Instruct (已棄用) 聊天完成 - 輸入: 文字(8,192 個字元)
- 輸出: 文字(8,192 個令牌)
- 工具呼叫:
- 回應格式: 文字

請參閱 Azure AI Foundry 入口網站中的此模型集合。

推斷範例:Meta Llama

如需如何使用Meta Llama模型的詳細資訊,請參閱下列範例:

說明 語言 範例
CURL 要求 Bash 連結
適用於 C 的 Azure AI 推斷套件# C# 連結
適用於 JavaScript 的 Azure AI 推斷套件 JavaScript 連結
適用於 Python 的 Azure AI 推斷套件 Python(程式語言) 連結
Python Web 要求 Python(程式語言) 連結
OpenAI SDK (實驗性) Python(程式語言) 連結
LangChain Python(程式語言) 連結
LiteLLM Python(程式語言) 連結

微軟

Microsoft模型包括各種模型群組,例如 MAI 模型、Phi 模型、醫療保健 AI 模型等等。 若要查看所有可用的Microsoft模型,請在 Azure AI Foundry 入口網站中檢視Microsoft模型集合

型號 類型 能力
MAI-DS-R1 具有推理內容的聊天完成 - 輸入: 文字(163,840 個令牌)
- 輸出: 文字(163,840 個令牌)
- 工具呼叫:
- 回應格式: 文字。
Phi-4-reasoning 具有推理內容的聊天完成 - 輸入: 文字(32768 標籤)
- 輸出: 文字(32768 令牌)
- 工具呼叫:
- 回應格式: 文字
Phi-4-mini-reasoning 具有推理內容的聊天完成 - 輸入: 文字(128,000 個詞元)
- 輸出: 文字(128,000 個片段)
- 工具呼叫:
- 回應格式: 文字
Phi-4-multimodal-instruct 聊天完成 (含影像和音訊內容) - 輸入: 文字、影像和音訊(131,072 令牌)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字
Phi-4-mini-說明 聊天完成 - 輸入: 文字(131,072 個詞元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字
Phi-4 聊天完成 - 輸入: 文字(16,384 個令牌)
- 輸出: 文字(16,384 個令牌)
- 工具呼叫:
- 回應格式: 文字
Phi-3.5-mini-instruct 聊天完成 - 輸入: 文字(131,072 個詞元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字
Phi-3.5-MoE-教學 聊天完成 - 輸入: 文字(131,072 個詞元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字
Phi-3.5-vision-instruct (英文) 聊天完成 (含影像) - 輸入: 文字和影像 (131,072 令牌)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字
Phi-3-mini-128k-instruct (英文) 聊天完成 - 輸入: 文字(131,072 個詞元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字
Phi-3-mini-4k-Instruct 聊天完成 - 輸入: 文字(4,096 個字元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字
Phi-3-small-128k-instruct 聊天完成 - 輸入: 文字(131,072 個詞元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字
Phi-3-small-8k-instruct 聊天完成 - 輸入: 文字(131,072 個詞元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字
Phi-3-medium-128k-instruct 聊天完成 - 輸入: 文字(131,072 個詞元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字
Phi-3-medium-4k-instruct (英文) 聊天完成 - 輸入: 文字(4,096 個字元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字

推斷範例:Microsoft模型

如需如何使用Microsoft模型的詳細資訊,請參閱下列範例:

說明 語言 範例
適用於 C 的 Azure AI 推斷套件# C# 連結
適用於 JavaScript 的 Azure AI 推斷套件 JavaScript 連結
適用於 Python 的 Azure AI 推斷套件 Python(程式語言) 連結
LangChain Python(程式語言) 連結
Llama-Index Python(程式語言) 連結

請參閱 Azure AI Foundry 入口網站中的Microsoft模型集合

米斯特拉爾人工智慧

Mistral AI 提供兩種模型類別,即:

  • 進階模型:這些模型包括Mistral Large、Mistral Small、Mistral-OCR-2503、Mistral Medium 3 (25.05)和 Ministral 3B 模型,並且可透過隨用隨付令牌計費作為無伺服器 API。
  • 開放式模型:這些包括 Mistral-small-2503、Codestral 和 Mistral Nemo(以令牌計費的隨需無伺服器 API 提供),以及 Mixtral-8x7B-Instruct-v01、Mixtral-8x7B-v01、Mistral-7B-Instruct-v01 和 Mistral-7B-v01(可在自行裝載的管理端點上下載並執行)。
型號 類型 能力
Codestral-2501 聊天完成 - 輸入: 文字(262,144 個詞元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字
Ministral-3B 聊天完成 - 輸入: 文字(131,072 個詞元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字、JSON
Mistral-Nemo 聊天完成 - 輸入: 文字(131,072 個詞元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字、JSON
Mistral-Large-2411 聊天完成 - 輸入: 文字(128,000 個詞元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字、JSON
Mistral-large-2407
(已淘汰)
聊天完成 - 輸入: 文字(131,072 個詞元)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字、JSON
Mistral-large
(已淘汰)
聊天完成 - 輸入: 文字(32,768 個令牌)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字、JSON
Mistral-medium-2505 聊天完成 - 輸入: 文字(128,000 個令牌),影像
- 輸出: 文字(128,000 個片段)
- 工具呼叫:
- 回應格式: 文字、JSON
Mistral-OCR-2503 影像到文字 - 輸入: 影像或 PDF 頁面(1,000 頁,最大 50 MB PDF 檔案)
- 輸出: 文字
- 工具呼叫:
- 回應格式: Text、JSON、Markdown
Mistral-small-2503 聊天完成 (含影像) - 輸入: 文字和影像(131,072 個標記),
圖像型標記尺寸為 16 像素 x 16 像素
原始影像的區塊
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字、JSON
Mistral-small 聊天完成 - 輸入: 文字(32,768 個令牌)
- 輸出: 文字(4,096 個令牌)
- 工具呼叫:
- 回應格式: 文字、JSON

請參閱 Azure AI Foundry 入口網站中的此模型集合。

推斷範例:Mistral

如需如何使用 Mistral 模型的更多範例,請參閱下列範例和教學課程:

說明 語言 範例
CURL 要求 Bash 連結
適用於 C 的 Azure AI 推斷套件# C# 連結
適用於 JavaScript 的 Azure AI 推斷套件 JavaScript 連結
適用於 Python 的 Azure AI 推斷套件 Python(程式語言) 連結
Python Web 要求 Python(程式語言) 連結
OpenAI SDK (實驗性) Python(程式語言) Mistral - OpenAI SDK 範例
LangChain Python(程式語言) Mistral - LangChain 範例
米斯特拉爾人工智慧 Python(程式語言) Mistral - Mistral AI 範例
LiteLLM Python(程式語言) Mistral - LiteLLM 範例

Nixtla

Nixtla 的 TimeGEN-1 是時間序列數據的產生性預先定型預測和異常偵測模型。 TimeGEN-1 可以針對新的時間序列產生精確的預測而不需要訓練,僅使用歷史值和外生共變數作為輸入。

若要執行推斷,TimeGEN-1 會要求您使用 Nixtla 的自定義推斷 API。

型號 類型 能力 推斷 API
TimeGEN-1 預測 - 輸入: 時間序列資料作為 JSON 或資料框架(支援多重變數輸入)
- 輸出: JSON 格式的時序數據
- 工具呼叫:
- 回應格式: JSON
預測用戶端與 Nixtla 的 API 互動

估計所需的代幣數量

建立 TimeGEN-1 部署之前,估計您打算取用和計費的權杖數目相當實用。 一個代幣對應於您的輸入資料集或輸出資料集中的一個資料點。

假設您有下列輸入時間序列資料集:

唯一識別碼 時間戳 目標變數 外生變數 1 外生變數 2
BE 2016-10-22 00:00:00 70.00 49593.0 57253.0
BE 2016-10-22 01:00:00 37.10 46073.0 51887.0

若要判斷權杖數目,請將資料列數 (在此範例中為 2) 與用於預測的資料行數—不計算 unique_id 和時間戳記資料 (在此範例中為 3) 相乘,以取得總共六個權杖。

假設下列輸出資料集:

唯一識別碼 時間戳 預測的目標變數
BE 2016-10-22 02:00:00 46.57
BE 2016-10-22 03:00:00 48.57

您也可以透過計算資料預測後返回的資料點數量來確定代幣數量。 在此範例中,字元的數目為兩個。

根據代幣估算價格

有四個定價計量可決定您支付的價格。 這些計量如下所示:

價格測量儀 說明
paygo-inference-input-tokens finetune_steps = 0 時,與用做推斷輸入的權杖相關聯的成本
paygo-inference-output-tokens finetune_steps = 0 時,與做為推斷輸出的權杖相關聯的成本
paygo-finetuned-model-inference-input-tokens finetune_steps> 0 時,與用做推斷輸入的權杖相關聯的成本
paygo-finetuned-model-inference-output-tokens finetune_steps> 0 時,與作為推斷輸出的權杖相關聯的成本

請參閱 Azure AI Foundry 入口網站中的 Nixtla 模型集合

NTT DATA

tsuzumi 是自動回歸語言優化轉換器。 微調版本會使用受監督的微調 (SFT)。 tsuzumi 會以高效率處理日文和英文。

型號 類型 能力
tsuzumi-7b 聊天完成 - 輸入: 文字(8,192 個字元)
- 輸出: 文字(8,192 個令牌)
- 工具呼叫:
- 回應格式: 文字

穩定性 AI

Stability AI 的影像生成模型集合包括穩定影像核心、穩定影像 Ultra 和 Stable Diffusion 3.5 大型模型。 Stable Diffusion 3.5 Large 會允許影像和文字輸入。

型號 類型 能力
Stable Diffusion 3.5 Large 映射產生 - 輸入: 文字和影像(1000 個令牌和 1 個影像)
- 輸出: 1 個影像
- 工具呼叫:
- 回應格式:影像(PNG 和 JPG)
穩定映像核心 映射產生 - 輸入: 文字(1000 個令牌)
- 輸出: 1 個影像
- 工具呼叫:
- 回應格式: 圖片 (PNG 和 JPG)
穩定影像 Ultra 映射產生 - 輸入: 文字(1000 個令牌)
- 輸出: 1 個影像
- 工具呼叫:
- 回應格式: 圖片 (PNG 和 JPG)

xAI

xAI 的 Grok 3 和 Grok 3 迷你模型的設計目的是在各種企業領域表現優異。 Grok 3 是 Colossus 數據中心預先定型的非推理模型,專為商務使用案例量身打造,例如數據擷取、編碼和文字摘要,具有特殊的指示追蹤功能。 它支援 131,072 令牌內容視窗,允許它處理廣泛的輸入,同時維持一致性和深度,並特別擅長跨網域和語言繪製連線。 另一方面,Grok 3 Mini 是經過訓練的輕量型推理模型,可透過測試階段計算來解決代理程式、編碼、數學及深層科學方面的問題。 它也支援適用於理解程式碼基底和企業文件的 131,072 語彙基元內容視窗,並擅長在新環境中使用工具解決複雜的邏輯問題,提供原始推理追蹤,讓使用者在可調整的思考預算下進行檢查。

型號 類型 能力
grok-3 聊天完成 - 輸入: 文字(131,072 個詞元)
- 輸出: 文字(131,072 個令牌)
- 語言:en
- 工具呼叫:
- 回應格式: 文字
grok-3-mini 聊天完成 - 輸入: 文字(131,072 個詞元)
- 輸出: 文字(131,072 個令牌)
- 語言:en
- 工具呼叫:
- 回應格式: 文字

推斷範例:Stability AI

透過標準部署部署所部署的穩定性 AI 模型會在路由 /image/generations上實作模型推斷 API。 如需如何使用穩定性 AI 模型的範例,請參閱下列範例: