Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Hinweis
Dieser Artikel bezieht sich auf das Microsoft Foundry(klassische) Portal.
🔄 Wechseln Sie zur Microsoft Foundry-Dokumentation (neu), wenn Sie das neue Portal verwenden.
Hinweis
Dieser Artikel bezieht sich auf das Microsoft Foundry (neue) Portal.
Dieser Artikel enthält eine Übersicht über die Ressourcen zum Erstellen und Bereitstellen vertrauenswürdiger KI-Agents. Dazu gehören End-to-End-Sicherheit, Observability und Governance mit Kontrollen und Prüfpunkten in allen Phasen des Agent-Lebenszyklus. Unsere empfohlenen grundlegenden Entwicklungsschritte sind im Microsoft Standard für verantwortungsvolle KI verankert, der Richtlinienanforderungen festlegt, die unsere eigenen Entwicklungsteams befolgen. Ein Großteil des Inhalts des Standards folgt einem Muster, das Teams auffordern, potenzielle Inhaltsrisiken zu entdecken, zu schützen und zu steuern.
Bei Microsoft basiert unser Ansatz auf einem Governance-Framework, das in KI-Prinzipien verwurzelt ist, die Produktanforderungen festlegen und als "Nordstern" dienen. Wenn wir einen Geschäftsanwendungsfall für generative KI identifizieren, entdecken und bewerten wir zunächst die potenziellen Risiken des KI-Systems, um kritische Fokusbereiche zu bestimmen.
Sobald wir diese Risiken identifizieren, bewerten wir ihre Prävalenz im KI-System durch systematische Messung und helfen uns dabei, Bereiche zu priorisieren, die Aufmerksamkeit benötigen. Anschließend wenden wir einen angemessenen Schutz auf Modell- und Agentenebene gegen diese Risiken an.
Schließlich untersuchen wir Strategien zur Verwaltung von Risiken in der Produktion, einschließlich Bereitstellung und Betriebsbereitschaft und Einrichtung einer Überwachung zur Unterstützung fortlaufender Governance, um die Compliance sicherzustellen und neue Risiken zu erkennen, nachdem die Anwendung live ist.
Im Einklang mit den RAI-Praktiken von Microsoft sind diese Empfehlungen in drei Stufen unterteilt:
- Entdecken Sie vor und nach der Bereitstellung Risiken in Bezug auf Qualität, Sicherheit und Sicherheitsrisiken von Agenten. Testen Sie z. B. Ihren Agent mit adversarialen Eingabeaufforderungen, um potenzielle Sicherheitsrisiken für Jailbreak zu identifizieren.
- Schützen Sie – sowohl auf der Modellausgabe- als auch auf Agentlaufzeitebene – vor Sicherheitsrisiken, unerwünschten Ausgaben und unsicheren Aktionen. Verwenden Sie Inhaltsfilter und Guardrails, um schädliche Ausgaben zu blockieren, bevor sie Benutzer erreichen.
- Steuern Agents durch Ablaufverfolgungs- und Überwachungstools und Complianceintegrationen. Richten Sie eine kontinuierliche Überwachung ein, um das Verhalten des Agents nachzuverfolgen und Anomalien in der Produktion zu erkennen.
Anzeigen und Reagieren auf Sicherheitswarnungen
Sie können Defender für Cloud-Sicherheitswarnungen und -empfehlungen anzeigen, um Ihren Sicherheitsstatus im Abschnitt "Risiken + Warnungen " zu verbessern. Sicherheitswarnungen sind die Benachrichtigungen, die vom Defender for Foundry Tools-Plan generiert werden, wenn Bedrohungen in Ihren KI-Workloads erkannt werden. Sie können im Azure-Portal oder im Defender-Portal Maßnahmen ergreifen, um diese Warnungen zu beheben.
Sicherheitswarnungen anzeigen:
- Melden Sie sich beim Microsoft Foundry-Portal an.
- Navigieren Sie zu Ihrem Projekt.
- Wählen Sie in der linken Navigationsleiste "Risiken+ Warnungen" aus.
- Überprüfen Sie aktive Warnungen und Empfehlungen.
- Wählen Sie eine Benachrichtigung aus, um Details und Korrekturschritte anzuzeigen.
- Weitere Informationen zu Sicherheitswarnungen finden Sie unter "Warnungen für KI-Workloads (Vorschau)".
- Weitere Informationen zu Sicherheitsempfehlungen finden Sie unter "Überprüfen von Sicherheitsempfehlungen".