適用於 Microsoft 365 Copilot的 AI 安全性
AI 已徹底改變許多領域,提供前所未有的功能和效率。 例如,Microsoft 365 Copilot,我們的 AI 生產力工具會協調大型語言模型 (LLM) 、Microsoft 圖形中的內容,以及 Word、Excel、PowerPoint、Outlook、Teams、SharePoint 等Microsoft 365 生產力應用程式。 此整合提供即時智慧協助、讓使用者提升創意、生產力和技能。
客戶非常想要探索這些商機,並仔細考慮隨附的安全性重要層面。 根據我們與進行 AI 轉型旅程的客戶互動,我們了解數據安全性、隱私權、模型健全性和網路攻擊等主題是首要考慮。
Microsoft了解這些考慮有多重要,這就是為什麼我們採用強固的深度防禦策略來協助保護生產力工具,例如 Microsoft 365 Copilot 防範安全性風險。 此多層式方法包含進階威脅情報、嚴格的安全性做法和主動式防護的組合。 例如,除了測試 Microsoft 365 Copilot 的專屬紅隊練習之外,我們還與 Casaba Security 合作,在 Microsoft 365 產品套件上測試九個 Copilot 實作。 我們立即解決並解決 其測試結果,其著重於識別 Open Worldwide Application Security Project 的 (OWASP) LLM 的前 10 名,以及支援應用程式基礎結構的傳統安全性弱點。
Microsoft採取大量步驟,以確保 Microsoft 365 Copilot 符合我們對客戶的現有隱私權、安全性和合規性承諾。 隨著 AI 技術和使用案例持續演進,我們的工作永遠不會完成:Microsoft 致力於持續推進 Copilot 的保護、從我們自己的系統監視和測試中學習,以及與客戶、合作夥伴和更廣泛的安全性產業合作。
本文概述Microsoft AI 的整體安全性狀態,以及不同Microsoft安全性解決方案如何共同運作,以協助保護您在 Microsoft 365 Copilot 和其他 AI 應用程式中的數據和互動。 我們將在解決方案可用時,使用新風險和創新的新資訊來更新本文。
保護 Microsoft 365 Copilot
在Microsoft,安全性不只是優先順序;這是我們所做的一切基礎。 這項承諾可延伸至 AI:不僅Microsoft負責任 AI 辦公室在 AI 旅程中的安全性與安全性,我們最近展開 的安全未來計劃 也進一步反映出我們為每個人打造更安全數位環境的志念。
AI 的全方位安全性狀態具有下列要素:
- 負責任 AI 開發:Microsoft負責 任 AI 原則的風雲人物。 這些原則強調整個 AI 生命週期的公平性、可靠性和安全性、隱私權和安全性、包容性、透明度和責任。
- 安全性最佳做法:我們為開發人員、工程師和安全性專業人員提供量身訂做的資源和最佳做法,以使用Microsoft AI 產品。 這些資源可協助組織瞭解並實作部署期間的安全性措施。
- 安全性開發生命週期 (SDL) :我們嚴格的 SDL 整合了整個 AI 開發程式的安全性考慮。 此主動式方法可確保從一開始就識別並減輕弱點。
- 威脅研究、偵測和風險降低:我們積極投資策略來偵測和降低 AI 模型的威脅。 這包括持續的弱點監視,以及針對潛在攻擊開發因應措施。 Microsoft威脅情報,我們的全球研究人員網路也會監視可能利用 AI 應用程式的威脅執行者和網路攻擊 的威脅環境 。
Microsoft從使用者輸入階段到系統輸出階段,保護 Microsoft 365 Copilot AI 功能的隱私權、安全性和可靠性。 Microsoft 365 Copilot 符合我們現有的隱私權、安全性和合規性承諾,包括一般數據保護規定 (GDPR) 和歐盟 (歐盟) 數據界限。 為了符合這些承諾,Microsoft處理使用 Copilot 所輸入的任何提示中的資訊,擷取的數據和產生的回應仍會受到客戶數據保護,並受限於我們的合約數據處理需求。
下列各節涵蓋Microsoft如何解決採用 Microsoft 365 Copilot 的重要客戶考慮之隱私權、安全性和合規性的各個層面。
訪問控制和許可權管理
Microsoft 365 Copilot 代表使用者存取資源,因此只能存取用戶已經具有存取權的資源。 例如,如果使用者沒有檔的存取權,則 Microsoft 365 Copilot 代表使用者工作也無法存取。
其用來產生回應的數據是由Microsoft根據合約數據處理需求來處理,包括傳輸中加密、協助保護隱私權及防止數據外泄。 此外,Microsoft 365 數據,包括來自 Microsoft Graph 和 SharePoint 的數據,都遵守訪問控制和稽核機制。
Microsoft 365 Copilot 遵守Microsoft 365、Microsoft Entra 和Microsoft Purview 原則,進一步限制使用者存取和許可權,例如資訊屏障、條件式存取和敏感度卷標。
Microsoft 365 Copilot 繼承數據外洩防護 (DLP) 原則,以防止 Copilot 產生回應的數據外洩。 此外,它會將敏感度標籤套用至這些回應,以增強數據安全性。
在模型定型期間保護數據
Microsoft 365 Copilot 使用Microsoft裝載的預先定型 LLM 模型;它不會使用客戶數據來定型這些模型。 此外,提示和接地數據不會用來定型 AI 模型,而且永遠不會與 OpenAI 或其他第三方共用。
遵守數據落地需求
Microsoft遵循Microsoft產品條款和數據保護增補條款中所述的數據落地承諾。 Microsoft 進階資料落地 (ADR) 和 多地理位置功能 供應項目包含自 2024 年 3 月 1 日起 Microsoft 365 Copilot 客戶的資料落地承諾。 針對歐盟 (歐盟) 使用者,Microsoft具有符合 歐盟數據界限的其他保護措施。 歐盟流量會保持在歐盟資料邊界內,而全球流量則可傳送至歐盟和其他國家/地區以進行 LLM 處理。
所有傳送來進行 AI 處理的數據都會在傳輸中和待用時加密。 為了確保數據在整個處理生命週期中保持安全,Microsoft 365 使用 FIPS 140-2 兼容的服務端技術來加密待用和傳輸中的客戶內容,包括 BitLocker、個別檔案加密、傳輸層安全性 (TLS) 1.2,以及因特網通訊協定安全性 (IPsec) 。
針對提示插入進行強化
Microsoft使用進階機器學習的組合,在多個層級進行內容篩選、嚴格的安全性通訊協定,以及持續監視。 間接或跨提示插入分類器會偵測並封鎖多層的提示插入。 同時,如下所示的防禦也有助於將跨提示插入式攻擊 (XPIA) 的安全性影響降到最低:
XPIA 分類器可用來偵測和減少 XPIA 的實例
針對可能改變或輸出內容的特殊許可權動作和動作, (用戶起始或核准的動作) 需求,例如傳送電子郵件訊息
已移除不必要的數據輸出機制,以防止數據外流
此外,在提示插入式攻擊的內容中,攻擊者只能存取使用者可存取的數據範圍。 這表示攻擊者受限於使用者在系統內擁有的許可權和數據。 這項限制有助於包含提示插入攻擊對用戶許可權範圍的潛在損害。
遵守負責任 AI 原則
Microsoft負責任 AI 原則會引導開發和使用 Microsoft 365 Copilot。 例如,Microsoft 365 Copilot 實作分類器,例如 Azure AI 內容安全 中可用的分類器,以及中繼提示,以協助降低有害、冒犯或暴力內容的風險。 Microsoft 365 Copilot 使用 AI 分類器和內容篩選器,在使用者提示或產生的回應中標示不同類型的潛在有害內容。 同時,中繼提示會引導模型行為,包括確定系統的行為符合Microsoft的 AI 原則和使用者期望。
Microsoft也會套用提示檢查技術和內容篩選,以防止使用 Microsoft 365 Copilot 進行勒索軟體和其他惡意代碼型攻擊。 此外,安全性開發生命週期 (SDL) 可協助保護 Microsoft 365 Copilot,防止遠端程式代碼執行。 我們執行此動作的其中一個方法是防止 Copilot 執行不受限制和未封裝的程序代碼。
為了協助防止非預期的內容,Microsoft 365 Copilot 使用可提供 365 租使用者客戶內容相關信息的專用語意資料庫,實作擷取擴增產生 (RAG Microsoft) 。 Microsoft持續且仔細地檢閱回應接地層級的變更。 對於 Microsoft 365 Copilot (包括提示、模型或協調流程) 所做的任何變更,我們都會攔截可能會對使用者造成負面影響的回歸。
Azure AI 中有新的工具可協助 AI 應用程式開發人員建置更安全的 AI 應用程式,以協助進一步增強這些保護措施。
保護著作權和智慧財產權
Microsoft針對受保護內容的產生提供內建保護,其中包括業界的第一個 「客戶著作權承諾 」計劃,可在遭到著作權侵害時,保護客戶並補償任何負面的判斷。
符合法規需求
Microsoft 365 Copilot 透過數種機制符合電子檔探索、稽核記錄和保留的法規需求:
保留原則:來自 Microsoft 365 Copilot 的訊息會自動包含在名為Teams聊天和 Copilot 互動的保留原則位置中。 這表示基於合規性理由,可以保留和刪除使用者提示和 Copilot 回應。 Copilot 訊息中的數據會儲存在執行 Copilot 之使用者信箱中的隱藏資料夾中,合規性系統管理員可以使用電子檔探索工具來搜尋該資料夾。
稽核記錄:稽核 Microsoft 365 Copilot 產生的稽核記錄最多可保留 180 天,稽核 (Standard) 客戶,以及稽核 (進階版) 授權持有者最多一年,並可選擇延長最多 10 年。
Microsoft Purview 的合規性:Microsoft Purview 為像是 Copilot 等產生的 AI 應用程式提供數據安全性和合規性保護。 Microsoft目前處於預覽狀態的適用於 AI 的 Purview 資料安全性狀態管理,提供易於使用的圖形工具和報告,可快速深入瞭解組織內的 AI 使用方式。 單鍵原則可 協助保護數據並符合法規需求。
管理員 控件:系統管理員可以使用 Microsoft Purview 來檢視和管理儲存的數據、設定保留原則,以及執行電子檔探索搜尋。 系統管理員和使用者起始的刪除選項都可透過 Purview 取得。
常見問題集
Microsoft 365 Copilot 的結果是否可靠?
雖然Microsoft防護功能可提供強大的威脅防護功能來防範錯誤和入侵,但與任何 AI 應用程式一樣,Microsoft 365 Copilot 的回應可能不一定正確。 您仍應套用人為判斷來檢查這些回應。
Microsoft如何處理我的提示和回應?
Microsoft會處理提示和回應,因為我們將電子郵件、檔和聊天等其他較傳統形式的內容視為相同,而我們的合約承諾也一樣。
Microsoft 365 Copilot 使用我的數據來定型 AI 模型嗎?
透過 Microsoft Graph 存取的 提示、回應和客戶資料不會用來定型基礎 LLM,包括 Microsoft 365 Copilot 所使用的 LLM。 產品改進是透過客戶回報事件和綜合提示產生等技術來推動。
如果我看到非預期或冒犯性的內容,該怎麼辦?
選取提示回應旁邊的下拉式 (向下) 按鈕,立即回報任何干擾或可疑的內容。
如何存取 Microsoft 365 Copilot 弱點評估報告?
您可以從服務信任入口網站下載 Microsoft 365 Copilot 的第三方弱點評估。
Microsoft可協助我找出 AI 應用程式中的風險嗎?
Microsoft已發行 Python 風險識別工具組,適用於 PyRIT (PyRIT) ,這是一個開放式存取自動化架構,旨在讓安全性專業人員和機器學習工程師能夠主動在自己產生的 AI 系統中 尋找風險 。
Microsoft 365 Copilot 能夠存取在接地內容時沒有的數據嗎?
Microsoft 365 Copilot 代表使用者存取資源,因此只能存取您已具有存取權的資源。
接地會在身分識別的內容中發生,而且語意索引和圖形查詢會根據基礎內容的許可權「安全性修剪」。 此程式可確保基礎程式中只會包含授權的內容。
如何限制 Microsoft 365 Copilot 可以使用的資料?
下列步驟可協助系統管理員控制使用者存取權,因而限制 Microsoft 365 Copilot 可以使用的數據:
- 限制對特定群組的 SharePoint 網站存取和 OneDrive 內容存取,即使在內容過度共享之後也一般。
- 使用受限制的 SharePoint 搜尋來限制允許 Microsoft 365 Copilot 參考內容的網站。
- 使用 Microsoft SharePoint Premium - SharePoint 進階管理,其提供報告和工具來分析和管理過度寬鬆的訪問控制清單,以及跨環境共用連結。
- 檢閱 Copilot 的資訊保護考慮。 Microsoft 365 Copilot 會接受 EXTRACT 許可權,並自動將敏感度標籤從參考的內容繼承到 Copilot 產生的回應和檔案。
- 將敏感度標籤套用 至您的Microsoft 365 檔案和電子郵件。 針對 Microsoft Purview 客戶,系統管理員可以建立和設定他們想要提供給應用程式和其他服務使用的 敏感度標籤 。
- 使用Microsoft目前處於預覽) 狀態的 AI (Purview 數據安全性狀態管理,探索與 Copilot 共用的敏感數據、查看 Copilot 回應中參考的檔案,以及探索 Copilot 和相關聯 SharePoint 網站所參考的未標記檔案,讓您識別及保護有過度使用風險的檔案。
- 設定原則,以移除舊數據和未使用的資料,並限制因為數據與 Microsoft Purview 資料生命週期管理 過度共用而導致的數據擴充。
如何使用Microsoft安全性解決方案來保護數據和 AI 應用程式互動?
Microsoft一律建議您為企業建立強大的安全性基礎。 零信任 安全性策略會提供這類基礎的指引,因為它會將每個連線和資源要求視為源自未受控制的網路和威脅執行者。 不論要求的來源或存取的資源為何,都使用 零信任 原則。
我們的全方位安全性解決方案,包括 Microsoft Defender、Entra、Purview 和 Intune,可一起合作,協助保護您在 Microsoft 365 Copilot 和其他 AI 應用程式中的數據和互動。 這些產品具有可讓您和您的小組執行下列作業的功能:
識別與 AI 使用相關的潛在風險, 例如敏感數據外洩和未經授權存取高風險應用程式
保護 AI 應用程式 及其處理或產生的敏感數據,包括提示和回應
藉由保留和記錄互動、偵測原則違規,以及調查事件,以負責任地治理 AI 使用
例如,我們最近引進了新的 Microsoft Defender 和 Purview 功能,提供專為強固安全性及治理產生 AI 應用程式及其數據而建置的工具。 此外,將 Microsoft Security Copilot 順暢地整合到我們的產品中,可簡化安全性分析師的整體程序和體驗。 藉由優先處理安全性並提供這些進階功能,Microsoft讓組織能夠安心地套用 AI 應用程式所提供的優點和商機。
我應該在哪裡報告 Microsoft 365 Copilot 和其他 AI 應用程式中的弱點?
如果您在任何 AI 平台中發現新的弱點,建議您遵循平台擁有者負責的揭露做法。 Microsoft自己的 Copilot) 程式 (會在此頁面中說明:Microsoft AI 賞金計劃。