Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Dieser Artikel enthält Sicherheitsempfehlungen für Organisationen, die AI-Workloads auf Azure ausführen. Die Anleitung konzentriert sich auf Azure KI-Plattform-as-a-Service -Lösungen (PaaS). Sie müssen KI-Ressourcen vor Bedrohungen schützen, um die Datenintegrität und Compliance aufrechtzuerhalten. Verwenden Sie Sicherheitsgrundwerte und gut durchdachte Frameworks, um Ihre KI-Infrastruktur vor Sicherheitsrisiken zu schützen.
Schützen von KI-Ressourcen
Um KI-Ressourcen zu sichern, wenden Sie Sicherheitsbaselines und bewährte Methoden an, um die Infrastruktur zu schützen, die KI-Workloads auf Azure unterstützt. Diese Maßnahmen reduzieren Risiken durch externe Bedrohungen und sorgen für eine konsistente Sicherheit in Ihrer Organisation. Wenden Sie standardisierte Sicherheitskontrollen an, um einen robusten Schutz aufrechtzuerhalten. Gehen Sie dazu wie folgt vor:
Wenden Sie Azure Sicherheitsbaselines auf alle KI-Ressourcen an. Azure Sicherheitsgrundwerte bieten standardisierte Sicherheitskontrollen, die allgemeine Sicherheitsrisiken auf KI-Plattformen behandeln. Diese Basislinien gewährleisten konsistenten Schutz und reduzieren Konfigurationsfehler, die Ihre Infrastruktur gefährden könnten. Verwenden Sie die Azure-Sicherheitsgrundwerte für jede von Ihnen bereitgestellte KI-Plattform.
Befolgen Sie Azure Well-Architected Framework-Sicherheitsleitfaden. Das Azure Well-Architected Framework bietet dienstspezifische Sicherheitsempfehlungen, die grundlegende Kontrollen ergänzen. Diese Richtlinien befassen sich mit eindeutigen Sicherheitsüberlegungen für jeden KI-Dienst und helfen Bei der Optimierung Ihres Sicherheitsstatus. Überprüfen und implementieren Sie die Sicherheitsempfehlungen in Azure Service Guides für Ihre KI-Plattformen.
Sichere KI-Modelle
Die Sicherheit von KI-Modellen schützt vor Bedrohungen wie Eingabevergiften und Modellmanipulation, die die Systemintegrität beeinträchtigen können. Durch die Absicherung von Modellen werden zuverlässige Ergebnisse sichergestellt und das Vertrauen der Organisation aufrechterhalten. Implementieren Sie umfassenden Modellschutz, um böswillige Ausbeutung zu verhindern und die Dienstzuverlässigkeit aufrechtzuerhalten. Gehen Sie dazu wie folgt vor:
Aktivieren Sie den Bedrohungsschutz für alle KI-Modelle. Microsoft Defender for Cloud überwacht und erkennt neue Bedrohungen, bevor sie Ihre KI-Infrastruktur gefährden. Dieser Schutz stellt eine konsistente Sicherheitsabdeckung für alle AI-Workloads sicher und reduziert die Reaktionszeit auf Angriffe. Stellen Sie Microsoft Defender for Cloud KI-Bedrohungsschutz bereit, um Prompt-Injection-Angriffe, Modellmanipulationen und andere KI-spezifische Bedrohungen zu überwachen.
Überwachen Sie Ausgaben, und wenden Sie Prompt-Schutz an. Überwachen Sie die Ausgaben, um schädliche oder unvorhersehbare Reaktionen zu erkennen, die möglicherweise auf erfolgreiche Angriffe auf Ihre AI-Modelle hinweisen. Verwenden Sie die Eingabeaufforderungsabschirmung, um schädliche Benutzereingaben zu blockieren und unangemessene Antworten zu verhindern. Implementieren Sie Eingabeaufforderungsschilde , um Benutzereingaben nach Angriffsmustern zu scannen und regelmäßig Modellausgaben auf Anzeichen von Kompromittierung oder Manipulation zu überprüfen.
Überprüfen Sie die Modellauthentifizierung und Integrität. Überprüfen Sie Modelle, um sicherzustellen, dass nur legitime und sichere KI-Modelle in Ihrer Umgebung funktionieren. Dieser Prozess verhindert, dass nicht autorisierte oder manipulierte Modelle Ihre Infrastruktur gefährden und das Vertrauen in KI-Ergebnisse aufrechterhalten. Richten Sie Überprüfungsschritte ein, um Modellsignaturen zu überprüfen, die Quellauthentität zu überprüfen und die Modellintegrität vor der Bereitstellung zu bestätigen. Achten Sie besonders auf Open-Source-Modelle.
Stellen Sie ein KI-Gateway für die zentrale Sicherheit bereit. Verwenden Sie ein KI-Gateway, um die Datenverkehrskontrolle zu zentralisieren und konsistente Sicherheitsrichtlinien für alle AI-Workloads durchzusetzen. Diese Methode vereinfacht die Sicherheitsverwaltung und stellt einheitliche Schutzstandards sicher. Verwenden Sie Azure API Management als KI-Gateway, um Authentifizierungsrichtlinien zu erzwingen, den Datenverkehrsfluss zu steuern und die API-Nutzung zu überwachen. Konfigurieren Sie die Managed-Identität des Gateways mit dem geringsten Berechtigungszugriff und integrieren Sie sie in Microsoft Entra ID für centralisierte Authentifizierung.
Sicherer KI-Zugriff
KI-Zugriffssteuerungen beschränken die Ressourcennutzung auf autorisierte Benutzer durch Authentifizierung und Autorisierung. Die Zugriffsverwaltung verhindert nicht autorisierte Interaktionen mit KI-Modellen und schützt vertrauliche Daten. Implementieren Sie umfassende Zugriffskontrollen, um die Sicherheitscompliance aufrechtzuerhalten und Sicherheitsrisiken zu reduzieren. Gehen Sie dazu wie folgt vor:
Verwenden Sie Microsoft Entra ID für die Authentifizierung anstelle von API-Schlüsseln. Microsoft Entra ID bietet zentralisierte Identitätsverwaltung und erweiterte Sicherheitsmerkmale, die statische API-Schlüssel nicht bieten. Die Verwendung von Entra ID beseitigt den Aufwand für die Verwaltung von Anmeldeinformationen und reduziert Sicherheitsrisiken durch kompromittierte Schlüssel. Ersetzen Sie API-Schlüssel durch Microsoft Entra ID Authentifizierung für Foundry, Azure OpenAI und Foundry Tools. Wenn Schlüssel erforderlich sind, drehen Sie die Schlüssel regelmäßig, und überwachen Sie den Zugriff.
Verwalten Sie ein Inventar von KI-Agents. Verwalten Sie eine genaue Bestandsaufnahme der KI-Agent-Identitäten, um die Zugriffsverwaltung und Richtlinienerzwingung zu unterstützen. Dieser Bestand verhindert Schatten-KI-Bereitstellungen und stellt sicher, dass alle Agents Sicherheitsstandards einhalten. Verwenden Sie Microsoft Entra-Agent-ID, um alle KI-Agenten anzuzeigen, die über Foundry und Copilot Studio erstellt wurden.
Konfigurieren Sie die mehrstufige Authentifizierung und den privilegierten Zugriff. Aktivieren Sie die mehrstufige Authentifizierung, um eine Sicherheitsebene hinzuzufügen, die vor Kompromittierung von Anmeldeinformationen schützt. Verwenden Sie privilegierte Zugriffssteuerungen, um die administrative Gefährdung zu begrenzen und Angriffsflächen zu reduzieren. Aktivieren Sie multifactor authentication für alle Benutzer und implementieren Sie Privileged Identity Management für Administrative Konten, um Just-in-Time-Zugriff bereitzustellen.
Implementieren Sie Richtlinien für den bedingten Zugriff. Richtlinien für bedingten Zugriff bieten adaptive Sicherheit, die auf Risikoindikatoren und Kontext reagiert. Diese Richtlinien verhindern nicht autorisierten Zugriff und verwalten die Produktivität der Benutzer durch intelligente Zugriffsentscheidungen. Konfigurieren Sie risikobasierte Richtlinien für bedingten Zugriff, um eine zusätzliche Überprüfung für ungewöhnliche Anmeldeaktivitäten zu erfordern, den Zugriff nach geografischem Standort einzuschränken und sicherzustellen, dass nur kompatible Geräte auf KI-Ressourcen zugreifen.
Wenden Sie die Grundsätze für den Zugriff auf die geringsten Berechtigungen an. Wenden Sie den geringsten Berechtigungszugriff an, um die Sicherheitsgefährdung zu minimieren, indem Sie nur die erforderlichen Berechtigungen für jede Rolle erteilen. Dieser Ansatz reduziert die Auswirkungen von Verstößen und verhindert nicht autorisierten Ressourcenzugriff. Verwenden Sie Azure rollenbasierte Zugriffssteuerung, um Berechtigungen basierend auf den Aufgabenaufgaben zuzuweisen und den Zugriff regelmäßig zu überprüfen, um die Eskalation von Berechtigungen zu verhindern.
Sichere Dienst-zu-Service-Kommunikation. Verwenden Sie die Dienst-zu-Dienst-Authentifizierung, um die Komplexität der Verwaltung von Anmeldeinformationen zu beseitigen und sichere Kommunikationskanäle bereitzustellen. Diese Methode reduziert Sicherheitsrisiken von gespeicherten Anmeldeinformationen und vereinfacht die Zugriffsverwaltung. Verwenden Sie managed Identity, um Azure Dienste zu authentifizieren, ohne Anmeldeinformationen zu verwalten.
Steuern des externen Zugriffs auf KI-Endpunkte. Steuern sie den externen Zugriff, um sicherzustellen, dass nur autorisierte Clients mit KI-Modellen interagieren. Umfassende Überwachung verhindert nicht autorisierte Modellnutzung und verwaltet die Dienstverfügbarkeit. Erfordern Microsoft Entra ID Authentifizierung für AI-Modellendpunkte. Erwägen Sie Azure API Management als KI-Gateway, um Zugriffsrichtlinien zu erzwingen und Nutzungsmuster zu überwachen.
Verwenden Sie das Foundry Management Center für Governance. Verwenden Sie die zentrale Verwaltung, um konsistente Zugriffssteuerungen und Ressourcengovernance in Ihrer KI-Infrastruktur bereitzustellen. Durch die Zentralisierung wird die Einhaltung von Organisationsstandards sichergestellt und die Verwaltung vereinfacht. Verwenden Sie das Verwaltungscenter, um den Zugriff auf KI-Ressourcen zu steuern, Kontingente zu verwalten und Governancerichtlinien durchzusetzen.
Schützen von KI-Daten
Um KI-Daten zu schützen, implementieren Sie Datengrenzen und Zugriffskontrollen, um Complianceverletzungen und Datenschutzverletzungen zu verhindern. Wenden Sie strenge Datengovernance an, um sicherzustellen, dass jede KI-Anwendung nur geeignete Datasets verarbeitet. Gehen Sie dazu wie folgt vor:
Definieren Sie Datengrenzen basierend auf Benutzerzugriffsebenen. Definieren Sie Datengrenzen, um Informationstypen basierend auf Benutzerberechtigungen und Anwendungsumfang zu trennen. Diese Trennung verhindert, dass KI-Anwendungen vertrauliche Daten nicht autorisierten Benutzern offenlegen. Erstellen Sie unterschiedliche Datasets für Anwendungen mit Mitarbeiterseite (interne Daten), kundenorientierte Anwendungen (Kundendaten) und öffentlich zugängliche Anwendungen (nur öffentliche Daten).
Implementieren sie die Datasetisolation für verschiedene KI-Anwendungen. Isolieren Sie Datasets, sodass jede KI-Workload innerhalb ihrer festgelegten Datenumgebung ohne Kreuzkontamination funktioniert. Durch diese Isolierung werden Die Risiken für Datenlecks zwischen Anwendungen mit unterschiedlichen Sicherheitsanforderungen reduziert. Verwenden Sie separate Azure Speicherkonten, Datenbanken oder Datenseen für verschiedene KI-Anwendungen. Konfigurieren Sie Zugriffssteuerungen, um nicht autorisierten datensatzübergreifenden Zugriff zu verhindern.
Konfigurieren sie rollenbasierte Datenzugriffssteuerelemente. Konfigurieren Sie rollenbasierte Steuerelemente, um sicherzustellen, dass Benutzer und Anwendungen nur auf Daten zugreifen, die für ihre Funktion und freigabestufe geeignet sind. Dieser Ansatz reduziert die Eskalationsrisiken von Berechtigungen und nicht autorisierte Datenexposition. Implementieren Sie Azure RBAC-Richtlinien, die Datenzugriffsberechtigungen an Benutzerrollen und Anwendungsanforderungen ausrichten.
Verwenden Sie Microsoft Purview für die Datenverwaltung. Verwenden Sie Microsoft Purview für die zentrale Datenermittlung, Klassifizierung und Complianceverwaltung in Ihrem KI-Ökosystem. Purview behält die Sichtbarkeit der Datennutzung bei und stellt die Einhaltung von Organisationsrichtlinien sicher. Stellen Sie Microsoft Purview für Foundry und AI-Agents bereit, um Die Datenlinie zu überwachen, vertrauliche Informationen zu klassifizieren und Datengovernancerichtlinien durchzusetzen.
Sichere KI-Ausführung
Die KI-Ausführungssicherheit schützt vor bösartiger Codeausführung, wenn KI-Agents vom Benutzer angeforderte Vorgänge oder autonome Prozesse ausführen. Diese Kontrollen verhindern einen Systemkompromiss und erhalten die Infrastrukturstabilität aufrecht. Implementieren Sie umfassende Ausführungskontrollen, um vor Codeeinfügungsangriffen und Ressourcenerschöpfung zu schützen. Gehen Sie dazu wie folgt vor:
Isolieren Sie KI-Ausführungsumgebungen. Isolieren Sie Ausführungsumgebungen, sodass jede Codeausführung in einem kontrollierten Bereich ausgeführt wird und keine Auswirkungen auf andere Systemkomponenten hat. Diese Isolation verhindert, dass bösartiger Code Hostsysteme kompromittiert oder auf nicht autorisierte Ressourcen zugreift. Verwenden Sie Dynamic Sessions in Azure Container Apps, um frische, isolierte Umgebungen für jede Ausführung zu erstellen. Diese Umgebungen werden nach Abschluss automatisch zerstört.
Überprüfen und genehmigen Sie den Ausführungscode. Überprüfen und genehmigen Sie den Ausführungscode, um Sicherheitsrisiken und böswillige Muster vor der Bereitstellung zu identifizieren. Dieser Prozess verhindert, dass kompromittierte Skripte ausgeführt werden, und hält die Codequalitätsstandards aufrecht. Führen Sie gründliche Sicherheitsüberprüfungen aller Skripts vor der Bereitstellung durch. Verwenden Sie Versionssteuerungssysteme, um Änderungen nachzuverfolgen und sicherzustellen, dass nur genehmigte Codeversionen in Ihren KI-Agents ausgeführt werden.
Konfigurieren Sie Ressourcenlimits und Timeouts. Legen Sie Ressourcengrenzwerte fest, um zu verhindern, dass einzelne Ausführungen übermäßige Systemressourcen verbrauchen und andere Dienste stören. Diese Steuerelemente behalten die Systemstabilität bei und verhindern Denial-of-Service-Bedingungen. Legen Sie cpu-, Arbeitsspeicher- und Datenträgerauslastungsgrenzwerte für Ausführungsumgebungen fest. Konfigurieren Sie automatische Timeouts, um lange ausgeführte oder hängen gebliebene Prozesse zu beenden.
Überwachen sie die Ausführungsaktivität. Überwachen Sie die Ausführungsaktivität, um Einblicke in das Verhalten von KI-Agenten zu erhalten und bösartige oder ungewöhnliche Muster zu erkennen. Diese Überwachung ermöglicht eine schnelle Reaktion auf Sicherheitsvorfälle und sorgt für ein operatives Bewusstsein. Protokollieren Sie alle Ausführungsaktivitäten, überwachen Sie Ressourcennutzungsmuster, und konfigurieren Sie Warnungen für verdächtige Verhaltensweisen oder Anomalien des Ressourcenverbrauchs.
Weitere Informationen finden Sie in den folgenden Ressourcen:
- Foundry Agent Service
Wie Sie Assistenten mit Azure OpenAI Service - So verwenden Sie die Funktionsaufrufe der Azure OpenAI-Assistenten
- Agentimplementierung
Azure Sicherheits- und Architekturressourcen
| Kategorie | Werkzeug | Beschreibung |
|---|---|---|
| Sicherheitsgrundwerte | Azure Machine Learning Sicherheitsbaseline | Standardisierte Sicherheitskontrollen für Azure Machine Learning Bereitstellungen |
| Sicherheitsgrundwerte | Sicherheitsgrundlage für Foundry | Sicherheitskontrollen für Foundry-Umgebungen |
| Sicherheitsgrundwerte | Azure OpenAI-Sicherheitsbaseline | Sicherheitskontrollen für Azure OpenAI-Dienste |
| Anleitung zur Architektur | Azure Machine Learning Servicehandbuch | Sicherheitsempfehlungen für Azure Machine Learning |
| Anleitung zur Architektur | Azure OpenAI-Serviceleitfaden | Bewährte Methoden für die Sicherheit für Azure OpenAI-Implementierungen |