共用方式為


負責任的 AI 常見問題集

什麼是 Microsoft 安全性 Copilot? 

Security Copilot 是一款自然語言生成式 AI 驅動的安全解決方案,協助提升防禦者的效率與能力,以機器速度與規模提升安全成果。 它從外掛和資料中擷取上下文來回答提示,讓資安專業人士和 IT 管理員能協助維護組織安全。

Security Copilot 能做什麼? 

Security Copilot 幫助你用自然語言回答問題,讓你能在幾秒內收到常見的安全與 IT 任務可執行的回應。

Microsoft Security Copilot 在以下情境下提供協助:

  • 安全調查與整治
    獲取事件背景,快速將複雜的安全警示分流成可執行的摘要,並透過逐步回應指引更快修復。

  • 腳本分析與 KQL 查詢建立
    消除手動撰寫查詢語言腳本或逆向工程帶有自然語言翻譯的惡意軟體腳本,讓每位團隊成員都能執行技術任務。

  • 風險探索與安全態勢管理
    對你的環境有整體的了解,並優先排序風險,這樣才能更容易發現改善姿勢的機會。

  • 更快的 IT 故障排除
    快速綜合相關資訊,獲取可行的洞察,以迅速識別並解決資訊科技問題。

  • 安全政策建立與管理
    定義一項新政策,與其他政策交叉比對以確認衝突,並總結現有政策,以快速且輕鬆地管理複雜的組織情境。

  • 生命週期工作流程配置
    建立群組並設定存取參數,並附有逐步指導,確保配置順暢,防止安全漏洞。

  • 利害關係人報告
    取得一份清晰且簡潔的報告,總結背景與環境、未解決議題,以及針對報告受眾語氣與語言所準備的保護措施。

Security Copilot 的預期用途是什麼? 

Security Copilot 協助資安專業人員在端對端情境下進行支援,如事件回應、威脅狩獵、情報蒐集及態勢管理。 欲了解更多資訊,請參閱 使用案例與角色

Security Copilot 是如何被評估的? 哪些計量可用來測量效能? 

Security Copilot 在正式發行前接受了大量測試。 測試包括紅隊分析,即嚴格測試產品以識別可能導致 Security Copilot 做出非預期用途或不支援 Microsoft AI 原則的故障模式與情境。

它既已發行,使用者意見反應對於協助 Microsoft 改善該系統便非常重要。 你可以選擇在收到 Security Copilot 輸出時提供回饋。 當回應不準確、不完整或不清楚時,請使用「需要改進」和「不適當」按鈕標記任何令人反感的輸出。 你也可以使用「看起來正確」按鈕確認回答是否有用且準確。 這些按鈕會出現在每次 Security Copilot 回應的底部,您的回饋會直接送達 Microsoft,協助我們提升平台效能。

Security Copilot 有哪些限制? 使用者在使用該系統時,該如何減少 Security Copilot 限制的影響? 

  • 像任何 AI 技術一樣,Security Copilot 並非事事都做對。 不過,您可以使用平臺內建的意見反應工具來提供您的觀察,以協助改善其回應。  

  • 如果未透過使用者輸入或外掛程式提供最新的資料,系統可能會產生過時的回應。 若要取得最佳結果,請確認已啟用正確的外掛程式。

  • 系統的設計旨在回應與安全性網域相關的提示,例如事件調查和威脅情報。 超出安全性範圍的提示可能會導致回應缺乏正確性和完整性。

  • Security Copilot 可能會產生程式碼或在回應中包含程式碼,若使用不當,可能會暴露敏感資訊或漏洞。 回應可能看似有效,但實際上可能在語意或語法上並不正確,或可能無法正確反應開發人員的意圖。 使用者應一律採取相同的預防措施一如其在使用使用者非獨立創造的材料編寫程式碼的情況,包括確保其適用性的預防措施。 這包括嚴格的測試、IP 掃描,以及檢查安全性弱點。

  • 與公開程式碼匹配:Security Copilot 能夠以機率方式產生新程式碼。 雖然它產生與訓練集代碼匹配的機率很低,但 Security Copilot 建議可能包含與訓練集代碼相符的程式碼片段。 使用者應一律採取相同的預防措施一如其在使用開發人員非獨立創造的材料編寫程式碼的情況,包括確保其適用性的預防措施。 這包括嚴格的測試、IP 掃描,以及檢查安全性弱點。

  • 系統可能無法處理冗長的提示,例如數十萬個字元。

  • 使用該平台可能會受到使用限制或限流的限制。 即使提示較短、選擇外掛程式、進行 API 呼叫、產生回應,以及在向使用者顯示回應之前加以檢查可能會花一點時間 (最多可能需要幾分鐘),而且需要高 GPU 容量。 

  • 若要將錯誤降至最低,建議使用者遵循 提示指導方針。 

哪些營運因素與設定能有效且負責任地使用 Security Copilot? 

  • 你可以用日常用語來描述你希望 Security Copilot 做的事情。 例如:

    • 「告訴我我最近的事件」或「總結這件事」。
  • 當系統產生回應時,您會開始看到系統在程序記錄檔中所採取的步驟,提供再次檢查其程序和來源的機會。  

  • 在提示形成期間,您可以隨時取消、編輯、重新執行或刪除提示。 

  • 您可以提供關於回應品質的意見反應,包括向 Microsoft 回報任何無法接受的事項。 

  • 您可以釘選、共用和匯出回應 - 協助安全性專業人員共同作業和共用觀察。 

  • 管理員可以控制連接到 Security Copilot 的外掛。   

  • 你可以選擇、個人化並管理與 Security Copilot 相容的外掛。

  • Security Copilot 創建了提示書,這是一組依序執行以完成特定工作流程的提示。

Microsoft 如何推動負責任的 AI 為 Security Copilot?

在 Microsoft,我們認真對待我們對負責任 AI 的承諾。 Security Copilot 是依照我們的 AI 原則開發的。 我們正與 OpenAI 合作,以提供鼓勵負責任使用的體驗。 例如,我們已經並將繼續與 OpenAI 在基礎模型作業上共同作業。 我們設計 Security Copilot 的使用者體驗,始終以人為中心。 我們開發了一個安全系統,其設計旨在減緩失敗風險,並防止誤用有害內容註釋、作業監視和其他保護措施等。 僅限邀請的搶先存取計劃也是我們負責任 AI 方法的一部分。 我們會收集有早期使用權的用戶回饋Security Copilot以改進工具,然後再讓它廣泛使用。

負責任的 AI 是一段旅程,我們將在這一過程中持續改善我們的系統。 我們致力於讓我們的 AI 更可靠且值得信任,而您的意見反應將協助我們達成目標。

您是否遵守歐盟 AI 法案?

我們致力於遵守歐盟 AI 法案。我們多年來為定義、發展和實作負責任的 AI 標準和內部治理所做的努力,增強了我們的整備狀態。 欲了解更多資訊,請參閱 《歐盟人工智慧法案:Microsoft概述》。

在 Microsoft,我們瞭解法規合規性的重要性,是 AI 技術中信任和可靠性的基礎。 我們致力於打造負責任的人工智慧。 我們的目標是開發和部署 AI,對社會產生有利的影響並獲得信任。

我們的工作由一組核心原則所指導: 公平性、可靠性和安全、隱私權和安全性、包容性、透明度和責任。 Microsoft 的 Responsible AI Standard 將這六項原則拆解為我們所提供 AI 的目標與需求。

我們負責任的 AI 標準會考慮法規提案及其演進,包括歐盟 AI 法案的初始提案。我們已在 AI 領域開發出最新的產品和服務,例如 Microsoft Copilot 和 Microsoft Azure OpenAI 服務,以符合我們負責任的 AI 標準。 隨著歐盟 AI 法案下的最終需求越見詳細地定義,我們期待與政策制定者合作,以確保規則的可行實作和應用、展示我們的合規性,並與我們的客戶和其他專案關係人互動,以支援整個生態系統的合規性。

另請參閱