共用方式為


負責任的 AI 常見問題集

什麼是 Microsoft Copilot for Security? 

Copilot for Security 是自然語言、AI 支援的安全性分析工具,可協助安全性專業人員快速回應威脅、以機器速度處理訊號,以及在幾分鐘內評估風險暴露。 它會從外掛程式和數據中繪製內容來回答安全性相關的提示,讓安全性專業人員可以協助保護其組織的安全。 使用者可以從 Copilot for Security 收集他們覺得有用的回應,並將之釘選到釘選版面以供日後參考。

Copilot for Security 的功能為何? 

Copilot for Security 提供 OpenAI 架構的完整功能,並結合 Microsoft 安全性領先專業知識、全球威脅情報和全方位安全性產品所開發的安全性特定模型。 Copilot for Security 可協助安全性專業人員更有效地偵測威脅、強化防禦及更快速地回應安全性事件。

Microsoft Copilot for Security 可透過下列方式協助提升安全性作業:

  • 探索弱點、排定風險優先順序,以及提供威脅防護和補救的引導式建議

  • 呈現事件、評估其規模,並提供補救步驟的建議

  • 摘要事件、事件和威脅,並建立可自訂的報告

  • 透過內建功能協助安全性專業人員共同作業

Copilot for Security 的用途為何? 

Copilot for Security 旨在協助安全性分析師調查和解決事件、摘要和說明安全性事件,並與專案關係人共用結果。  

如何評估 Copilot for Security? 哪些計量可用來測量效能? 

Copilot for Security 在發行之前已經過大量測試。 測試包含紅隊演練,這是嚴格測試產品以識別故障模式和可能導致 Copilot for Security 做出或說出超出其預期用途或不支援 Microsoft AI 原則 的案例的做法。

它既已發行,使用者意見反應對於協助 Microsoft 改善該系統便非常重要。 您可以選擇每當收到來自 Copilot for Security 的輸出時,提供您的意見反應。 當回應不正確、不完整或不清楚時,請使用 [偏離目標] 和 [報告] 按鈕來標示任何令人反感的輸出。 您也可以在回應有用且準確時,使用「確認」按鈕來確認。 這些按鈕會顯示在每個 Copilot for Security 回應的底部,而您的意見反應會直接傳送給 Microsoft,以協助我們改善平臺的效能。

Copilot for Security 有哪些限制? 使用者如何在使用系統時,將 Copilot for Security 限制的影響降到最低? 

  • [搶先試用計劃] 旨在讓客戶有機會及早存取 Copilot for Security,並針對平臺提供意見反應。 預覽功能並非供生產環境使用,而且功能可能有限。 

  • 就像任何 AI 支援的技術一樣,Copilot for Security 並非總能做到完全正確。 不過,您可以使用平臺內建的意見反應工具來提供您的觀察,以協助改善其回應。  

  • 如果未透過使用者輸入或外掛程式提供最新的資料,系統可能會產生過時的回應。 若要取得最佳結果,請確認已啟用正確的外掛程式。

  • 系統的設計旨在回應與安全性網域相關的提示,例如事件調查和威脅情報。 超出安全性範圍的提示可能會導致回應缺乏正確性和完整性。

  • Copilot for Security 可能會產生程式碼或在回應中包含程式碼,如果不謹慎使用,這可能會暴露敏感性資訊或弱點。 回應可能看似有效,但實際上可能在語意或語法上並不正確,或可能無法正確反應開發人員的意圖。 使用者應一律採取相同的預防措施一如其在使用使用者非獨立創造的材料編寫程式碼的情況,包括確保其適用性的預防措施。 這包括嚴格的測試、IP 掃描,以及檢查安全性弱點。

  • 與公用程式碼比對: Copilot for Security 能夠以概率方式產生新的程式碼。 雖然它可能產生符合訓練集中的程式碼之程式碼的機率很低,但 Copilot for Security 建議可能會包含一些符合訓練集中的程式碼的程式碼片段。 使用者應一律採取相同的預防措施一如其在使用開發人員非獨立創造的材料編寫程式碼的情況,包括確保其適用性的預防措施。 這包括嚴格的測試、IP 掃描,以及檢查安全性弱點。

  • 系統可能無法處理冗長的提示,例如數十萬個字元。

  • 使用平臺可能會受限於使用限制或容量節流。 即使提示較短、選擇外掛程式、進行 API 呼叫、產生回應,以及在向使用者顯示回應之前加以檢查可能會花一點時間 (最多可能需要幾分鐘),而且需要高 GPU 容量。 

  • 若要將錯誤降至最低,建議使用者遵循 提示指導方針。 

哪些操作因素和設定可讓您有效且負責地使用 Copilot for Security? 

  • 您可以使用日常文字來描述您想要 Copilot for Security 執行的動作。 例如:

    • 「告訴我我的最新事件」或「摘要此事件」。
  • 當系統產生回應時,您會開始看到系統在程序記錄檔中所採取的步驟,提供再次檢查其程序和來源的機會。  

  • 在提示形成期間,您可以隨時取消、編輯、重新執行或刪除提示。 

  • 您可以提供關於回應品質的意見反應,包括向 Microsoft 回報任何無法接受的事項。 

  • 您可以釘選、共用和匯出回應 - 協助安全性專業人員共同作業和共用觀察。 

  • 系統管理員可以控制連結到 Copilot for Security 的外掛程式。   

  • 您可以選擇、個人化及管理與 Copilot for Security 搭配作業的外掛程式。

  • Copilot for Security 建立的提示集,這是一組依序執行以完成特定工作流程的提示。

Microsoft 如何讓 Microsoft Copilot for Security 成為負責任的 AI?

在 Microsoft,我們認真對待我們對負責任 AI 的承諾。 Copilot for Security 是根據我們的 AI 原則 所開發。 我們正與 OpenAI 合作,以提供鼓勵負責任使用的體驗。 例如,我們已經並將繼續與 OpenAI 在基礎模型作業上共同作業。 我們已設計 Copilot for Security 使用者體驗,確保人類始終處於核心位置。 我們開發了一個安全系統,其設計旨在減緩失敗風險,並防止誤用有害內容註釋、作業監視和其他保護措施等。 僅限邀請的搶先存取計劃也是我們負責任 AI 方法的一部分。 我們會從早期存取 Copilot for Security 的使用者提出意見反應,以在廣泛提供工具之前先改善工具。

負責任的 AI 是一段旅程,我們將在這一過程中持續改善我們的系統。 我們致力於讓我們的 AI 更可靠且值得信任,而您的意見反應將協助我們達成目標。

您是否遵守歐盟 AI 法案?

我們致力於遵守歐盟 AI 法案。我們多年來為定義、發展和實作負責任的 AI 標準和內部治理所做的努力,增強了我們的整備狀態。

在 Microsoft,我們瞭解法規合規性的重要性,是 AI 技術中信任和可靠性的基礎。 我們致力於依設計建立負責任 AI。 我們的目標是開發和部署 AI,對社會產生有利的影響並獲得信任。

我們的工作由一組核心原則所指導: 公平性、可靠性和安全、隱私權和安全性、包容性、透明度和責任。 Microsoft 負責任 AI 標準採用這六個原則,並將其細分為我們所提供 AI 的目標和需求。

我們負責任的 AI 標準會考慮法規提案及其演進,包括歐盟 AI 法案的初始提案。我們已在 AI 領域開發出最新的產品和服務,例如 Microsoft Copilot 和 Microsoft Azure OpenAI 服務,以符合我們負責任的 AI 標準。 隨著歐盟 AI 法案下的最終需求越見詳細地定義,我們期待與政策制定者合作,以確保規則的可行實作和應用、展示我們的合規性,並與我們的客戶和其他專案關係人互動,以支援整個生態系統的合規性。