共用方式為


適用於 Azure AI Foundry 的可信任 AI

本文提供建置和部署可信任代理程序的資源概觀。 這包括端對端安全性、可檢視性和控管,以及代理程式生命週期所有階段的控件和檢查點。 我們建議的基本開發步驟是以 Microsoft負責任 AI 標準為基礎,其會設定我們自己的工程小組遵循的原則需求。 標準的大部分內容都遵循模式,要求小組探索、保護和治理潛在的內容風險。

在Microsoft中,我們的方法是由根植於 AI 準則的治理架構所引導,該架構會建立產品需求,並作為我們的「北星」。當我們識別產生 AI 的商業使用案例時,我們會先探索並評估 AI 系統的潛在風險,以找出關鍵焦點領域。

一旦我們識別這些風險,我們會透過系統測量來評估 AI 系統中的流行程度,以協助我們優先處理需要注意的領域。 然後,我們會在模型和代理程式層級針對這些風險套用適當的保護。

最後,我們會檢查在生產環境中管理風險的策略,包括部署和作業整備,以及設定監視以支持持續治理,以確保合規性,並在應用程式上線後呈現新的風險。

為了配合Microsoft的 RAI 做法,這些建議會組織成三個階段:

  • 探索 部署前後的代理程式品質、安全性和安全性風險。
  • 保護 – 在模型輸出和代理程式運行時間層級 – 防範安全性風險、不想要的輸出和不安全的動作。
  • 透過追蹤和監視工具和合規性整合來管理代理程式。

安全性警示和建議

您可以在 [ 風險 + 警示 ] 區段中檢視適用於雲端的 Defender 安全性警示和建議,以改善您的安全性狀態。 當在 AI 工作負載中識別到威脅時,Defender AI 服務方案會產生安全警報通知。 您可以在 Azure 入口網站或 Defender 入口網站中採取動作來解決這些警示。

深入了解可靠的 AI