代码解释器是一项高级功能,在 智能 Microsoft 365 Copilot 副驾驶® 和 Copilot Studio 中使用 Agent Builder 构建的 智能 Microsoft 365 Copilot 副驾驶® 和代理中提供,可通过 Python 代码解决复杂任务。 它使用推理模型编写和运行代码,使用户能够解决复杂的数学问题、分析数据、生成可视化效果等。 大型语言模型 (LLM) 生成所有代码,并且系统会在安全隔离的环境中运行它。 Microsoft不会根据客户数据训练基础模型。 有关详细信息,请参阅 隐私和保护。
本文介绍代码解释器用于保护客户数据和基础结构免受恶意代码攻击的综合安全和治理框架。
体系结构和隔离
独立环境
Copilot 中的代码解释器和代理在Microsoft Azure 上托管) 独立虚拟机 (VM 中运行。 每个会话与其他会话和核心 Copilot 服务分开。 这种分离可最大程度地降低跨会话污染或未经授权的数据访问的风险。
会话生命周期管理
每次代码解释器运行代码时,它都会从新的 VM 开始。 会话结束后,系统会销毁 VM。 VM 将被删除,并且不会保留或存储任何数据。 此设计可防止持久存储代码或数据,以降低数据泄露的风险。
网络和资源控制
代码解释器 VM 强制实施严格的网络控制。 它们不允许任何入站或出站流量。 此限制可防止代码与外部服务器通信,并防止数据外泄。 资源配额限制时间、CPU、内存和磁盘使用量,以缓解拒绝服务 (DoS) 风险并确保公平分配资源。
安全性和治理
负责任的 AI (RAI) 治理
代码解释器遵循Microsoft RAI 策略。 这些策略需要严格的威胁建模、持续监视和主动风险缓解。 定期安全评审和更新有助于防范新出现的威胁和漏洞。
数据驻留和隐私
代码解释器运行代码的环境符合Microsoft数据驻留承诺。 客户数据保留在指定的地理边界内,受Microsoft 365 数据驻留策略的约束,并遵循Microsoft 365 数据驻留条款。 此符合性可确保合规性。
有关隐私保护的详细信息,请参阅智能 Microsoft 365 Copilot 副驾驶®的数据、隐私和安全性。
Microsoft Azure基础结构安全性
Microsoft Azure基础结构在硬件和软件级别强制实施可靠的安全控制。 VM 使用经过安全强化的映像,访问仅限于授权的进程。 基于角色的访问控制 (RBAC) 、静态加密和传输中加密以及持续漏洞扫描是标准做法。
运行时安全措施和监视
将实时监视和扫描代码解释器运行的所有代码是否存在恶意模式。 可疑活动(例如尝试访问受限文件或升级权限)会立即终止会话并提醒安全团队。 沙盒可确保包含任何影响,并在使用后销毁环境。
策略强制实施和符合性
Copilot 及其代理受符合行业标准和合规性框架(包括 ISO 27001、SOC 2 和一般数据保护条例 (GDPR) )的综合安全策略管理。 这些策略有助于维护客户数据安全性和系统完整性。