分享方式:


探索 Azure AI Foundry 模型

Azure AI Foundry 模型是探索、評估及部署功能強大的 AI 模型的一站式目的地,無論您要建置自定義的副手、建置代理程式、增強現有的應用程式,還是探索新的 AI 功能。

使用 Foundry 模型,您可以:

  • 探索來自 Microsoft、OpenAI、DeepSeek、Hugging Face、Meta 等尖端模型的豐富目錄。
  • 您可以使用真實世界的任務和自己的數據,並排比較與評估這些模型。
  • 有了用於微調、觀察和負責任 AI 的內建工具,您可以放心部署。
  • 選擇您的路徑—自備模型、使用託管模型,或與 Azure 服務緊密整合。
  • 無論您是開發人員、數據科學家或企業架構師,Foundry 模型都提供彈性和控制,讓您能夠建置可安全地、負責任且快速調整的 AI 解決方案。

Azure AI Foundry 提供完整的 AI 模型目錄。 有超過 1900 種模型,範圍從基礎模型、推理模型、小型語言模型、多模式模型、領域特定模型、產業模型等。

我們的目錄分為兩個主要類別:

瞭解這些類別之間的差異,可協助您根據特定需求和戰略目標來選擇正確的模型。

直接由 Azure 銷售的模型

這些是由Microsoft根據Microsoft產品條款所裝載和銷售的模型。 這些模型經過嚴格的評估,並深入整合至 Azure 的 AI 生態系統。 這些模型來自各種頂級提供者,並提供增強的整合、優化效能,以及直接Microsoft支援,包括企業級服務等級協定(SLA)。

Azure 直接銷售的模型特性:

  • Microsoft的官方第一方支援
  • 與 Azure 服務和基礎結構的高階整合
  • 廣泛的效能基準測試和驗證
  • 遵循Microsoft負責任的 AI 標準
  • 企業級延展性、可靠性和安全性

這些模型也有可替代的布建輸送量的優點,這表示您可以彈性地在這些模型中使用配額和保留。

來自合作夥伴和社群的模型

這些模型構成大部分的 Azure AI Foundry 模型。 這些模型是由受信任的第三方組織、合作夥伴、研究實驗室和社群參與者所提供。 這些模型提供特製化且多樣化的 AI 功能,涵蓋各種案例、產業和創新。

來自合作夥伴和社群的模型特性:

  • 由外部合作夥伴和社群參與者開發及支援
  • 各種特殊化模型,迎合利基或廣泛的使用案例
  • 通常由提供者自行驗證,並採用由 Azure 提供的整合指導方針
  • 社群驅動的創新和尖端模型的快速可用性
  • 標準 Azure AI 整合,支持和維護由個別提供者管理

模型可部署為受控計算或標準 (隨用隨付) 部署選項。 模型提供者會選取模型可部署的方式。

選擇直接模型與合作夥伴與社群模型

從 Azure AI Foundry 模型選取模型時,請考慮下列事項:

  • 使用案例和需求:Azure 直接銷售的模型適用於需要深度 Azure 整合、保證支持和企業 SLA 的案例。 來自合作夥伴和社群的模型在特製化使用案例和創新導向案例中表現優異。
  • 支援期望:Azure 直接銷售的模型隨附強大的Microsoft支持和維護。 這些模型是由其提供者所支援,具有不同層級的SLA和支持結構。
  • 創新和特製化:來自合作夥伴和社群的模型提供快速存取由領先的研究實驗室和新興 AI 提供者所開發的特殊創新和利基功能。

模型集合

模型目錄會將模型組織成不同的集合,包括:

  • Azure 上獨家提供的 Azure OpenAI 模型:透過與 Foundry 模型中 Azure OpenAI 整合提供的 Azure OpenAI 旗艦模型。 Microsoft 支援這些模型及其依據產品條款和 Azure OpenAI 的服務等級協議 (SLA) 的使用。

  • 來自 Hugging Face 中樞的開放式模型:來自 Hugging Face 中樞的數百個模型,用於在受控計算中進行即時推斷。 此集合中列出的模型由 Hugging Face 建立並維護。 如需協助,請使用 Hugging Face 論壇Hugging Face 支援。 深入瞭解 使用 Azure AI Foundry 部署開放式模型。

您可以使用此表單來要求將模型新增至模型目錄。

模型目錄功能概觀

Azure AI Foundry 入口網站中的模型目錄是用來探索和使用各種模型來建置產生式 AI 應用程式的中樞。 模型目錄展示來自多個模型提供者的數百個模型,例如 Azure OpenAI、Mistral、Meta、Cohere、NVIDIA 和 Hugging Face,還包括 Microsoft 訓練的模型。 來自 Microsoft 以外提供者的模型是非 Microsoft 產品,如 Microsoft 的產品條款所定義,並受模型提供的條款規範。

您可以透過關鍵詞搜尋和篩選來搜尋和探索符合您需求的模型。 模型目錄還提供特定模型的效能排行榜和基準衡量指標。 您可以選取 [瀏覽排行榜 ] 和 [ 比較模型] 來存取它們。 您也可以從模型卡片 [效能評量] 索引標籤存取效能評量資料。

模型類別目錄篩選上,您會發現:

  • 集合:您可以根據模型提供者集合來篩選模型。
  • 產業:您可以篩選在產業特定數據集上定型的模型。
  • 功能:您可以篩選出獨特的模型功能,例如推理和工具呼叫。
  • 部署選項:您可以篩選支援特定部署選項的模型。
    • 標準:此選項可讓您支付每個 API 呼叫的費用。
    • 已佈建:最適合用於大量一致磁碟區的即時評分。
    • Batch:最適合成本優化的批次作業,而不是延遲。 不提供批次部署的遊樂場支援。
    • 受控計算:此選項可讓您在 Azure 虛擬機上部署模型。 系統會向您收取裝載和推斷的費用。
  • 推斷工作:您可以根據推斷工作類型篩選模型。
  • 微調工作:您可以根據微調工作類型來篩選模型。
  • 授權:您可以根據授權類型篩選模型。

模型卡片上,您會發現:

  • 快速事實:您可以概覽模型的重要資訊。
  • 詳細數據:此頁面包含模型的詳細資訊,包括描述、版本資訊、支持的數據類型等等。
  • 效能評定:您會發現選取模型的效能基準檢驗計量。
  • 現有的部署:如果您已經部署模型,您可以在 [現有部署] 索引卷標下找到它。
  • 授權:您會發現與模型授權相關的法律資訊。
  • 成品:只會針對開啟的模型顯示此索引標籤。 您可以看到模型資產,並透過使用者介面下載它們。

模型部署:受控計算和標準部署

除了部署至 Azure OpenAI 之外,模型目錄還提供兩種不同的方法來部署模型以供使用:受控計算和標準部署。

每個模型的可用部署選項和功能會有所不同,如下表所述。 深入了解部署選項的資料處理

模型部署選項的功能

特徵 受控計算 標準部署
部署體驗和計費 模型權數會部署到具有受控計算的專用虛擬機器。 受控計算 (可以有一或多個部署) 會提供 REST API 以進行推斷。 將根據部署所使用的虛擬機器核心時數計費。 透過部署存取模型,這會佈建一個 API 來存取模型。 使用該 API 可以存取 Microsoft 裝載和管理的模型,以進行推斷。 您需要為 API 的輸入和輸出付費,這通常以代幣的形式計費。 在部署之前會提供定價資訊。
API 驗證 金鑰和 Microsoft Entra 驗證。 僅限金鑰。
內容安全性 使用 Azure AI 內容安全服務 API。 提供與推斷 API 整合的 Azure AI 內容安全篩選。 Azure AI 內容安全篩選可能會分開計費。
網路隔離 設定 Azure AI Foundry 中樞的受控網路。 受控計算會遵循中樞的公用網路存取 (PNA) 旗標設定。 如需詳細資訊,請參閱本文稍後的 標準部署所部署之模型網路隔離 一節。

支援部署選項的可用模型

如需 Azure OpenAI 模型,請參閱 Azure OpenAI

若要檢視標準部署或受控計算支援的模型清單,請移至 Azure AI Foundry 中模型目錄的首頁。 使用 [部署選項 ] 篩選來選取 [標準部署 ] 或 [ 受控計算]。

顯示如何在目錄中依受控計算模型進行篩選的螢幕擷取畫面。

顯示模型即服務和受控計算服務週期的圖表。

模型生命週期:棄用和淘汰

AI 模型發展得很快,而且當相同模型系列中具有更新功能的新版本或新模型可供使用時,較舊的模型可能會在 AI Foundry 模型目錄中淘汰。 為了允許順利轉換至較新的模型版本,某些模型會為使用者提供啟用自動更新的選項。 若要深入瞭解不同模型的模型生命週期、即將推出的模型淘汰日期,以及建議的取代模型和版本,請參閱:

受控計算

以受控計算形式部署模型的功能會建置在 Azure Machine Learning 的平台功能上,以在大型語言模型 (LLM) 作業的整個生命週期中順暢地整合模型目錄中的各種模型集合。

顯示大型語言模型作業生命週期的圖表。

可部署為受控計算的模型的可用性

這些模型可透過 Azure Machine Learning 登錄提供。 這些登錄允許啟用機器學習優先方法來裝載和散發 Azure Machine Learning 資產。 這些資產包括模型權重、用於執行模型的容器執行時期、用於評估和微調模型的流程,以及基準測試和樣本範例的資料集。

這些登錄建置在可高度調整並符合企業需求的基礎結構之上,以便:

  • 透過內建異地複寫,將低延遲存取模型成品傳遞至所有 Azure 區域。

  • 支援企業安全性需求,例如使用 Azure 原則限制對模型的存取,以及使用受控虛擬網路保護部署。

使用受控計算來部署模型以進行推斷

可用於部署至受控計算的模型可以部署至 Azure Machine Learning 受控計算以進行即時推斷。 部署到受控計算時,需要在 Azure 訂閱中為特定產品提供虛擬機器配額,以便能夠以最佳方式執行模型。 某些模型可讓您部署到暫時共用的配額以進行模型測試

深入了解如何部署下列模型:

使用受控計算來建置生成式 AI 應用程式

Azure Machine Learning 中的提示流程功能為原型設計提供了絕佳的體驗。 您可以使用提示流程中已部署受控計算的模型,搭配開放式模型 LLM 工具。 您也可以使用 LangChain 等熱門 LLM 工具中受控計算所公開的 REST API,搭配 Azure Machine Learning 延伸模組

部署為受控計算之模型的內容安全

Azure AI 內容安全服務可與受控計算搭配使用,以篩選各種有害內容的類別,例如色情內容、暴力、仇恨和自殘。 您也可以使用服務來篩選進階威脅,例如越獄風險偵測和受保護材料的文字偵測。

您可以參考此筆記本來了解與適用於 Llama 2 的 Azure AI 內容安全的整合。 或者,可以在提示流程中使用內容安全 (文字) 工具,將模型的回應傳遞至 Azure AI 內容安全以進行篩選。 如 Azure AI 內容安全定價中所述,您需要為這類用法單獨付費。

標準部署計費

您可以在模型目錄中以標準計費方式部署特定模型。 這個部署方法也稱為 標準部署,可讓您使用模型作為 API,而不在您的訂用帳戶上裝載它們。 模型會裝載於 Microsoft 管理的基礎結構中,以便對模型提供者的模型進行 API 型存取。 API 型存取可大幅降低存取模型的成本,並簡化佈建體驗。

模型提供者會提供可供部署作為標準部署的模型,但裝載於受Microsoft管理的 Azure 基礎結構中,並透過 API 進行存取。 模型提供者會為其模型定義授權條款並設定使用的價格。 Azure Machine Learning 服務:

  • 管理主機基礎結構。
  • 提供推斷 API。
  • 做為資料處理器,用於處理透過 MaaS 部署的模型所提交提示和輸出的內容。

有關資料隱私一文中深入了解 MaaS 的資料處理。

顯示模型發行者服務週期的圖表。

備註

雲端解決方案提供者 (CSP) 訂用帳戶無法購買標準部署模型。

帳單管理

透過 MaaS 部署之模型的探索、訂閱和取用體驗位於 Azure AI Foundry 入口網站及 Azure Machine Learning 工作室中。 使用者接受使用模型時所要遵守的授權條款。 在部署期間會提供取用定價資訊。

非 Microsoft 提供者所提供的模型會根據 Microsoft 商業市集使用條款,透過 Azure Marketplace 計費。

Microsoft 提供的模型會作為第一方取用服務透過 Azure 計量計費。 如產品條款所述,可以使用 Azure 計量購買第一方取用服務,但不受 Azure 服務條款的約束。 使用這些模型必須遵守提供的授權條款。

微調模型

某些模型也支援微調。 針對這些模型,您可以利用受控計算(預覽)或標準部署微調,使用您提供的數據來量身打造模型。 如需詳細資訊,請參閱微調概觀

模型部署為標準部署的 RAG

在 Azure AI Foundry 入口網站中,您可以使用向量索引和檢索增強生成(RAG)。 您可以使用可透過標準部署部署來部署的模型,根據自定義數據產生內嵌和推斷。 然後,這些內嵌和推斷可以產生所使用案例專屬的解答。 如需詳細資訊,請參閱 在 Azure AI Foundry 入口網站中建置和使用向量索引。

優惠方案和型號的區域可用性

只有在使用者的 Azure 訂用帳戶屬於模型提供者已提供該產品/服務的國家/地區的某個計費帳戶時,才能使用按權杖付費計費。 如果供應專案可在相關區域中使用,則用戶必須在 Azure 區域中擁有項目資源,模型可供部署或微調,如適用。 請參閱 標準部署中模型的區域可用性 |Azure AI Foundry 以取得詳細資訊。

模型透過標準部署來部署的內容安全性

針對透過標準部署部署所部署的語言模型,Azure AI 會實作 Azure AI 內容安全 文字仲裁篩選器的預設設定,以偵測有害內容,例如仇恨、自我傷害、性與暴力內容。 若要深入瞭解內容篩選,請參閱 Azure 直接銷售模型的護欄和控件

小提示

內容篩選不適用於透過標準部署部署部署的特定模型類型。 這些模型類型包括內嵌模型和時間序列模型。

當服務處理產生內容的提示時,內容篩選會同步發生。 您可以根據 Azure AI 內容安全價格個別計費,以供此類使用。 您可以停用個別無伺服器端點的內容篩選:

  • 第一次部署語言模型時
  • 稍後設定,透過選取部署詳細資料頁面上的內容篩選切換開關

假設您決定使用 模型推斷 API 以外的 API 來處理透過標準部署所部署的模型。 在這種情況下,除非您使用 Azure AI 內容安全性個別實作內容篩選,否則不會啟用內容篩選。

若要開始使用 Azure AI 內容安全,請參閱快速入門:分析文字內容。 如果您在使用透過標準部署部署部署的模型時未使用內容篩選,則會有較高的風險讓使用者暴露至有害內容。

模型透過標準部署來部署的網路隔離

部署為標準部署之模型的端點會遵循具有部署所在專案之 Azure AI Foundry 中樞的公用網路存取旗標設定。 若要協助保護您的標準部署,請在 Azure AI Foundry 中樞上停用公用網路存取旗標。 您可以協助使用中樞的私人端點,保護從用戶端到端點的輸入通訊。

若要設定 Azure AI Foundry 中樞的公用網路存取旗標:

  • 前往 Azure 入口網站
  • 搜尋中樞所屬的資源群組,然後從此資源群組所列的資源中選取您的 Azure AI Foundry 中樞。
  • 在中樞概觀頁面上的左窗格中,移至 [設定]>[網路]
  • 在 [公用存取] 索引標籤上,您可以設定公用網路存取旗標的設定。
  • 儲存您的變更。 您的變更最多可能需要五分鐘才能散佈。

局限性

  • 如果您擁有一個 Azure AI Foundry 中樞,且其中的私人端點是在 2024 年 7 月 11 日之前建立的,則新增至該中樞項目的標準部署將不會遵循中樞的網路配置。 相反地,您必須為中樞建立新的私人端點,並在專案中建立新的標準部署,讓新的部署可以遵循中樞的網路設定。

  • 如果您在 2024 年 7 月 11 日之前建立具有 MaaS 部署的 Azure AI Foundry 中樞,而且在此中樞上啟用私人端點,則現有的標準部署不會遵循中樞的網路設定。 若要讓中樞中的標準部署遵循中樞的網路設定,您必須再次建立部署。

  • 目前,基於自有資料的 Azure OpenAI 支援不適用於私人中樞內的標準部署,因為私人中樞已停用公用網路存取旗標。

  • 任何網路設定變更 (例如,啟用或停用公用網路存取旗標) 最多可能需要五分鐘的時間才能散佈。