共用方式為


負責任的 AI 常見問題集

什麼是 Microsoft 安全性 Copilot? 

Security Copilot 是一種自然語言、生成式 AI 驅動的安全解決方案,可幫助提高防禦者的效率和能力,以改善機器速度和規模的安全結果。 它從外掛程式和資料中提取上下文來回答提示,以便安全專業人員和 IT 管理員可以幫助確保其組織的安全。

Security Copilot 可以做什麼? 

Security Copilot 有助於以自然語言回答問題,以便您可以在幾秒鐘內收到常見安全和 IT 任務的可操作回應。

Microsoft Security Copilot 在下列案例中提供協助:

  • 安全性調查和補救
    取得事件的背景資訊,以快速將複雜的安全性警示分類為可操作的摘要,並透過逐步回應指引更快地進行補救。

  • 腳本分析和 KQL 查詢建立
    無需手動編寫查詢語言腳本或使用自然語言翻譯對惡意軟體腳本進行逆向工程,使每個團隊成員都能執行技術任務。

  • 風險探索與安全態勢管理
    全面了解您的環境,並確定風險,以發現更輕鬆地改善姿勢的機會。

  • 更快的 IT 問題故障排除
    快速綜合相關資訊並獲得可操作的見解,以快速識別和解決 IT 問題。

  • 安全策略的建立和管理
    定義新政策,將其與其他政策交叉引用以應對衝突,並總結現有政策以快速輕鬆地管理複雜的組織上下文。

  • 生命週期工作流程組態
    建立群組並設定存取參數並逐步指導,以確保無縫配置以防止安全漏洞。

  • 利害關係人報告
    取得一份清晰簡潔的報告,總結背景和環境、懸而未決的問題,以及針對報告受眾的語氣和語言準備的保護措施。

Security Copilot 的預期用途是什麼? 

Security Copilot 可協助在事件回應、威脅搜捕、情報收集和狀態管理等端對端案例中支援安全性專業人員。 如需詳細資訊,請參閱 使用案例和角色

如何評估 Security Copilot? 哪些計量可用來測量效能? 

Security Copilot 在發布之前經過了大量測試。 測試包括紅隊,這是嚴格測試產品的做法,以識別可能導致 Security Copilot 執行或說出超出其預期用途或不支援 Microsoft AI 原則的故障模式和場景。

它既已發行,使用者意見反應對於協助 Microsoft 改善該系統便非常重要。 每當您收到 Security Copilot 的輸出時,您可以選擇提供意見反應。 當回應不準確、不完整或不清楚時,請使用「需要改進」和「不適當」按鈕來標記任何令人反感的輸出。 您也可以在回應有用且準確時,使用「確認」按鈕來確認。 這些按鈕會出現在每個 Security Copilot 回應的底部,您的意見反應會直接傳送給 Microsoft,以協助我們改善平臺的效能。

Security Copilot 有哪些限制? 使用者在使用系統時如何將 Security Copilot 限制的影響降到最低? 

  • 與任何 AI 驅動的技術一樣,Security Copilot 並非一切都正確。 不過,您可以使用平臺內建的意見反應工具來提供您的觀察,以協助改善其回應。  

  • 如果未透過使用者輸入或外掛程式提供最新的資料,系統可能會產生過時的回應。 若要取得最佳結果,請確認已啟用正確的外掛程式。

  • 系統的設計旨在回應與安全性網域相關的提示,例如事件調查和威脅情報。 超出安全性範圍的提示可能會導致回應缺乏正確性和完整性。

  • Security Copilot 可能會產生程式碼或在回應中包含程式碼,如果不謹慎使用,可能會暴露敏感性資訊或弱點。 回應可能看似有效,但實際上可能在語意或語法上並不正確,或可能無法正確反應開發人員的意圖。 使用者應一律採取相同的預防措施一如其在使用使用者非獨立創造的材料編寫程式碼的情況,包括確保其適用性的預防措施。 這包括嚴格的測試、IP 掃描,以及檢查安全性弱點。

  • 與公用程式碼相符:Security Copilot 能夠以機率方式產生新程式碼。 雖然它產生符合定型集中程式碼的程式碼的可能性很低,但 Security Copilot 建議可能包含一些符合定型集中程式碼的程式碼片段。 使用者應一律採取相同的預防措施一如其在使用開發人員非獨立創造的材料編寫程式碼的情況,包括確保其適用性的預防措施。 這包括嚴格的測試、IP 掃描,以及檢查安全性弱點。

  • 系統可能無法處理冗長的提示,例如數十萬個字元。

  • 平台的使用可能會受到使用限制或容量節流的限制。 即使提示較短、選擇外掛程式、進行 API 呼叫、產生回應,以及在向使用者顯示回應之前加以檢查可能會花一點時間 (最多可能需要幾分鐘),而且需要高 GPU 容量。 

  • 若要將錯誤降至最低,建議使用者遵循 提示指導方針。 

哪些作業因素和設定可讓您有效且負責任地使用 Security Copilot? 

  • 您可以使用日常單字來描述您希望 Security Copilot 執行的動作。 例如:

    • “告訴我我最近的事件”或“總結這個事件”。
  • 當系統產生回應時,您會開始看到系統在程序記錄檔中所採取的步驟,提供再次檢查其程序和來源的機會。  

  • 在提示形成期間,您可以隨時取消、編輯、重新執行或刪除提示。 

  • 您可以提供關於回應品質的意見反應,包括向 Microsoft 回報任何無法接受的事項。 

  • 您可以釘選、共用和匯出回應 - 協助安全性專業人員共同作業和共用觀察。 

  • 系統管理員可以控制連線到 Security Copilot 的外掛程式。   

  • 您可以選擇、個人化及管理與 Security Copilot 搭配使用的外掛程式。

  • Security Copilot 建立了提示書,這是一組依序執行以完成特定工作流程的提示。

Microsoft 如何處理負責任的 AI for Security Copilot?

在 Microsoft,我們認真對待我們對負責任 AI 的承諾。 Security Copilot 是根據我們的 AI 原則進行開發。 我們正與 OpenAI 合作,以提供鼓勵負責任使用的體驗。 例如,我們已經並將繼續與 OpenAI 在基礎模型作業上共同作業。 我們設計了 Security Copilot 使用者體驗,以人為中心。 我們開發了一個安全系統,其設計旨在減緩失敗風險,並防止誤用有害內容註釋、作業監視和其他保護措施等。 僅限邀請的搶先存取計劃也是我們負責任 AI 方法的一部分。 我們正在聽取那些能夠提前訪問 Security Copilot 的用戶反饋,以改進該工具,然後再廣泛使用該工具。

負責任的 AI 是一段旅程,我們將在這一過程中持續改善我們的系統。 我們致力於讓我們的 AI 更可靠且值得信任,而您的意見反應將協助我們達成目標。

您是否遵守歐盟 AI 法案?

我們致力於遵守歐盟 AI 法案。我們多年來為定義、發展和實作負責任的 AI 標準和內部治理所做的努力,增強了我們的整備狀態。 如需詳細資訊,請參閱 歐盟 AI 法案:Microsoft 概觀

在 Microsoft,我們瞭解法規合規性的重要性,是 AI 技術中信任和可靠性的基礎。 我們致力於透過設計打造負責任的 AI。 我們的目標是開發和部署 AI,對社會產生有利的影響並獲得信任。

我們的工作由一組核心原則所指導: 公平性、可靠性和安全、隱私權和安全性、包容性、透明度和責任。 Microsoft 的 Responsible AI Standard 採用這六項原則,並將它們分解為我們提供的 AI 的目標和需求。

我們負責任的 AI 標準會考慮法規提案及其演進,包括歐盟 AI 法案的初始提案。我們已在 AI 領域開發出最新的產品和服務,例如 Microsoft Copilot 和 Microsoft Azure OpenAI 服務,以符合我們負責任的 AI 標準。 隨著歐盟 AI 法案下的最終需求越見詳細地定義,我們期待與政策制定者合作,以確保規則的可行實作和應用、展示我們的合規性,並與我們的客戶和其他專案關係人互動,以支援整個生態系統的合規性。

另請參閱