Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
In diesem Artikel werden alle KI-Sicherheitsempfehlungen aufgeführt, die möglicherweise in Microsoft Defender für Cloud angezeigt werden.
Die Empfehlungen, die in Ihrer Umgebung angezeigt werden, basieren auf den Ressourcen, die Sie schützen und auf Ihrer angepassten Konfiguration. Sie können die Empfehlungen im Portal sehen, die für Ihre Ressourcen gelten.
Informationen zu Aktionen, die Sie als Reaktion auf diese Empfehlungen ausführen können, finden Sie unter "Korrekturempfehlungen" in Defender für Cloud.
Azure-Empfehlungen
Microsoft Entra-ID sollte beim Verbinden von Azure AI Foundry mit dem Standardspeicherkonto verwendet werden.
Beschreibung: Defender für Cloud identifizierten anmeldeinformationsbasierten Zugriff beim Herstellen einer Verbindung mit dem Standardspeicherkonto in Azure AI Foundry. Dies stellt ein Risiko eines nicht autorisierten Zugriffs dar. Um das Risiko eines nicht autorisierten Zugriffs zu verringern, sollten Sie die schlüsselbasierte Autorisierung deaktivieren und stattdessen die Microsoft Entra-ID verwenden.
Schweregrad: hoch
Microsoft Entra-ID sollte beim Herstellen einer Verbindung mit Datenspeichern im Azure AI Foundry-Projekt verwendet werden.
Beschreibung: Defender für Cloud identifizierten anmeldeinformationsbasierten Zugriff beim Herstellen einer Verbindung mit dem Speicherkonto im Azure AI Foundry-Projekt. Dies stellt ein Risiko eines nicht autorisierten Zugriffs dar. Um das Risiko eines nicht autorisierten Zugriffs zu verringern, sollten Sie die schlüsselbasierte Autorisierung deaktivieren und stattdessen die Microsoft Entra-ID verwenden.
Schweregrad: hoch
Application Insights sollte in Azure AI Foundry verwendet werden
Beschreibung: Defender für Cloud hat festgestellt, dass Anwendungserkenntnisse in Azure AI Foundry nicht konfiguriert sind. Die KI Foundry verwendet Azure Application Insights, um Überwachungsinformationen zu Ihren bereitgestellten Modellen zu speichern. Dies stellt ein Risiko einer verzögerten Bedrohungserkennung und einer unwirksamen Reaktion auf Vorfälle dar.
Schweregrad: Mittel
Netzwerkverbindungen sollten in Azure AI Foundry eingeschränkt sein
Beschreibung: Defender für Cloud identifizierten öffentlichen Netzwerkzugriff für alle Netzwerke in Azure AI Foundry aktiviert. Dies stellt ein Risiko für die Gefährdung externer Bedrohungen dar und kann zu unbefugten Zugriffen und Datenschutzverletzungen führen. Indem Sie den Netzwerkzugriff einschränken, können Sie sicherstellen, dass nur zulässige Netzwerke auf den Dienst zugreifen können.
Schweregrad: Mittel
(Bei Bedarf aktivieren) Vom Kunden verwaltete Schlüssel sollten zum Verschlüsseln von Daten in Azure AI Foundry verwendet werden.
Beschreibung: Defender für Cloud hat festgestellt, dass von Microsoft verwaltete Schlüssel zum Verschlüsseln von Daten in Azure AI Foundry verwendet werden. Dies stellt ein Risiko dar, dass Organisationen mit verwandten Complianceanforderungen keine Vorschriften einhalten. Die Verwendung von vom Kunden verwalteten Schlüsseln (CMK) zum Verschlüsseln ruhender Daten bietet mehr Kontrolle über den Schlüssellebenszyklus, einschließlich Drehung und Verwaltung, und ist häufig erforderlich, um Compliancestandards zu erfüllen. Standardmäßig wird dies nicht bewertet. Eine Anwendung sollte nur bei Erzwingen durch Compliance- oder restriktive Richtlinienanforderungen erfolgen. Wenn diese Option nicht aktiviert ist, werden die Daten mit von Microsoft verwalteten Schlüsseln verschlüsselt. Um diese Empfehlung zu implementieren, aktualisieren Sie den Parameter "Effect" in der Sicherheitsrichtlinie für den entsprechenden Bereich.
Schweregrad: Mittel
Bei Azure KI Services-Ressourcen sollte der Schlüsselzugriff deaktiviert sein (lokale Authentifizierung deaktivieren).
Beschreibung: Der Schlüsselzugriff (lokale Authentifizierung) wird empfohlen, für die Sicherheit deaktiviert zu werden. Azure OpenAI Studio, in der Regel in Entwicklung/Tests verwendet, erfordert Schlüsselzugriff und funktioniert nicht, wenn der Schlüsselzugriff deaktiviert ist. Nachdem die Einstellung deaktiviert wurde, wird die Microsoft Entra-ID zur einzigen Zugriffsmethode, die die Aufrechterhaltung des Minimalberechtigungsprinzips und der granularen Kontrolle ermöglicht. Weitere Informationen
Diese Empfehlung ersetzt die alten Empfehlung Cognitive Services-Konten sollten lokale Authentifizierungsmethoden deaktiviert haben. Es war früher in der Kategorie Cognitive Services und Cognitive Search und wurde aktualisiert, um das Benennungsformat von Azure AI Services einzuhalten und die relevanten Ressourcen auszurichten.
Schweregrad: Mittel
Azure KI Services-Ressourcen sollten den Netzwerkzugriff einschränken.
Beschreibung: Durch einschränken des Netzwerkzugriffs können Sie sicherstellen, dass nur zulässige Netzwerke auf den Dienst zugreifen können. Dies kann erreicht werden, indem Netzwerkregeln konfiguriert werden, sodass nur Anwendungen aus zulässigen Netzwerken auf die Azure AI-Dienstressource zugreifen können.
Diese Empfehlung ersetzt die alten Empfehlung Cognitive Services-Konten, die den Netzwerkzugriff einschränken sollten. Es war früher in der Kategorie Cognitive Services und Cognitive Search und wurde aktualisiert, um das Benennungsformat von Azure AI Services einzuhalten und an die relevanten Ressourcen auszurichten.
Schweregrad: Mittel
Azure KI Services-Ressourcen sollten Azure Private Link nutzen.
Beschreibung: Mit Azure Private Link können Sie Ihr virtuelles Netzwerk ohne öffentliche IP-Adresse an der Quelle oder am Ziel mit Azure-Diensten verbinden. Die Private Link-Plattform reduziert das Risiko von Datenlecks, indem die Konnektivität zwischen dem Consumer und den Diensten über das Azure-Backbone-Netzwerk verarbeitet wird.
Erfahren Sie mehr über private Links unter: Was ist Azure Private Link?
Diese Empfehlung ersetzt die alte Empfehlung Cognitive Services sollte einen privaten Link verwenden. Es war früher in den Kategorien "Datenempfehlungen" enthalten und wurde aktualisiert, um das Benennungsformat von Azure AI Services einzuhalten und die relevanten Ressourcen anzupassen.
Schweregrad: Mittel
(Bei Bedarf aktivieren) Azure KI Services-Ressourcen sollten ruhende Daten mit einem kundenseitig verwalteten Schlüssel (Customer-Managed Key, CMK) verschlüsseln
Beschreibung: Die Verwendung von vom Kunden verwalteten Schlüsseln zum Verschlüsseln ruhender Daten bietet mehr Kontrolle über den Schlüssellebenszyklus, einschließlich Drehung und Verwaltung. Dies ist insbesondere für Organisationen mit entsprechenden Complianceanforderungen relevant.
Standardmäßig wird dies nicht bewertet. Eine Anwendung sollte nur bei Erzwingen durch Compliance- oder restriktive Richtlinienanforderungen erfolgen. Wenn keine Aktivierung erfolgt ist, werden die Daten mit plattformseitig verwalteten Schlüsseln verschlüsselt. Für die Implementierung aktualisieren Sie den Effect-Parameter in der Sicherheitsrichtlinie für den entsprechenden Geltungsbereich. (Verwandte Richtlinie: Azure AI Services-Ressourcen sollten ruhende Daten mit einem vom Kunden verwalteten Schlüssel (CMK) verschlüsseln.
Diese Empfehlung ersetzt die alten Empfehlung Cognitive Services-Konten sollten die Datenverschlüsselung mithilfe von Kundenschlüsseln aktivieren. Es war früher in den Kategorien "Datenempfehlungen" enthalten und wurde aktualisiert, um das Benennungsformat von Azure AI Services einzuhalten und die relevanten Ressourcen anzupassen.
Schweregrad: Niedrig
In Azure KI Services sollten Diagnoseprotokolle aktiviert sein.
Beschreibung: Aktivieren von Protokollen für Azure AI-Dienstressourcen. Auf diese Weise können Sie Aktivitätspfade zu Untersuchungszwecken neu erstellen, wenn ein Sicherheitsvorfall auftritt oder Ihr Netzwerk kompromittiert wird.
Diese Empfehlung ersetzt die alten Empfehlungsdiagnoseprotokolle in Suchdienst s sollten aktiviert sein. Es war früher in der Kategorie Cognitive Services und Cognitive Search und wurde aktualisiert, um das Benennungsformat von Azure AI Services einzuhalten und die relevanten Ressourcen auszurichten.
Schweregrad: Niedrig
Ressourcenprotokolle im Azure Machine Learning-Arbeitsbereich müssen aktiviert sein (Vorschau)
Beschreibung und verwandte Richtlinie: Mithilfe von Ressourcenprotokollen können Aktivitätspfade für Untersuchungszwecke neu erstellt werden, wenn ein Sicherheitsvorfall auftritt oder wenn Ihr Netzwerk kompromittiert wird.
Schweregrad: Mittel
Azure Machine Learning-Arbeitsbereiche sollten den Zugriff auf öffentliche Netzwerke deaktivieren (Vorschau)
Beschreibung und verwandte Richtlinie: Durch das Deaktivieren des Zugriffs auf öffentliche Netzwerke wird die Sicherheit verbessert, indem sichergestellt wird, dass die Arbeitsbereiche für maschinelles Lernen nicht im öffentlichen Internet verfügbar gemacht werden. Sie können die Offenlegung von Arbeitsbereichen steuern, indem Sie stattdessen private Endpunkte erstellen. Weitere Informationen finden Sie unter Konfigurieren eines privaten Endpunkts für Azure Machine Learning-Arbeitsbereich.
Schweregrad: Mittel
Azure Machine Learning Computes müssen sich in einem virtuellen Netzwerk befinden (Vorschau)
Beschreibung und zugehörige Richtlinie: Azure Virtual Networks bieten eine verbesserte Sicherheit und Isolation für Ihre Azure Machine Learning Compute Clusters und Instanzen sowie Subnetze, Zugriffssteuerungsrichtlinien und andere Features, um den Zugriff weiter einzuschränken. Wenn eine Computeressource mit einem virtuellen Netzwerk konfiguriert wird, ist sie nicht öffentlich adressierbar, und auf das virtuelle Netzwerk kann nur über VMs und Anwendungen innerhalb des virtuellen Netzwerks zugegriffen werden.
Schweregrad: Mittel
Lokale Authentifizierungsmethoden für Azure Machine Learning-Computeressourcen deaktivieren (Vorschau)
Beschreibung und verwandte Richtlinie: Durch das Deaktivieren lokaler Authentifizierungsmethoden wird die Sicherheit verbessert, indem sichergestellt wird, dass Machine Learning Computes Azure Active Directory-Identitäten ausschließlich für die Authentifizierung erfordert. Weitere Informationen finden Sie unter Azure Policy-Kontrollmechanismen zur Einhaltung gesetzlicher Bestimmungen für Azure Machine Learning.
Schweregrad: Mittel
Azure Machine Learning-Computeinstanzen müssen neu erstellt werden, um die neuesten Softwareupdates zu erhalten (Vorschau)
Beschreibung und zugehörige Richtlinie: Stellen Sie sicher, dass Azure Machine Learning-Computeinstanzen auf dem neuesten verfügbaren Betriebssystem ausgeführt werden. Die Sicherheit wird verbessert und Sicherheitsrisiken werden verringert, indem sie mit den neuesten Sicherheitspatches ausgeführt werden. Weitere Informationen finden Sie unter Verwaltung von Sicherheitsrisiken für Azure Machine Learning.
Schweregrad: Mittel
Ressourcenprotokolle in Azure Databricks-Arbeitsbereichen müssen aktiviert sein (Vorschau)
Beschreibung und verwandte Richtlinie: Mithilfe von Ressourcenprotokollen können Aktivitätspfade für Untersuchungszwecke neu erstellt werden, wenn ein Sicherheitsvorfall auftritt oder wenn Ihr Netzwerk kompromittiert wird.
Schweregrad: Mittel
Azure Databricks-Arbeitsbereiche sollten den öffentlichen Netzwerkzugriff deaktivieren (Vorschau)
Beschreibung und zugehörige Richtlinie: Durch das Deaktivieren des zugriffs auf öffentliche Netzwerke wird die Sicherheit verbessert, indem sichergestellt wird, dass die Ressource nicht im öffentlichen Internet verfügbar gemacht wird. Sie können die Offenlegung von Ressourcen steuern, indem Sie private Endpunkte erstellen. Weitere Informationen hierzu finden Sie unter Aktivieren von Azure Private Link.
Schweregrad: Mittel
Azure Databricks-Cluster müssen öffentliche IP-Adressen deaktivieren (Vorschau)
Beschreibung und zugehörige Richtlinie: Das Deaktivieren öffentlicher IP-Adressen von Clustern in Azure Databricks-Arbeitsbereichen verbessert die Sicherheit, indem sichergestellt wird, dass die Cluster nicht im öffentlichen Internet verfügbar gemacht werden. Weitere Informationen finden Sie unter Sichern der Clusterkonnektivität.
Schweregrad: Mittel
Azure Databricks-Arbeitsbereiche müssen sich in einem virtuellen Netzwerk befinden (Vorschau)
Beschreibung und zugehörige Richtlinie: Azure Virtual Networks bieten eine verbesserte Sicherheit und Isolation für Ihre Azure Databricks-Arbeitsbereiche sowie Subnetze, Zugriffssteuerungsrichtlinien und andere Features, um den Zugriff weiter einzuschränken. Weitere Informationen finden Sie unter Bereitstellen von Azure Databricks in Ihrem virtuellen Azure-Netzwerk.
Schweregrad: Mittel
Azure Databricks-Arbeitsbereiche müssen private Verbindung verwenden (Vorschau)
Beschreibung und zugehörige Richtlinie: Mit Azure Private Link können Sie Ihre virtuellen Netzwerke ohne öffentliche IP-Adresse an der Quelle oder am Ziel mit Azure-Diensten verbinden. Die Private Link-Plattform verarbeitet die Konnektivität zwischen dem Consumer und den Diensten über das Azure-Backbone-Netzwerk. Durch das Zuordnen privater Endpunkte zu Azure Databricks-Arbeitsbereichen können Sie das Risiko von Datenlecks verringern. Weitere Informationen finden Sie unter Erstellen des Arbeitsbereichs und privater Endpunkte auf der Benutzeroberfläche des Azure-Portals.
Schweregrad: Mittel
AWS KI-Empfehlungen
AWS Bedrock sollte AWS PrivateLink verwenden
Beschreibung Amazon Bedrock ENDPOINT powered by AWS PrivateLink, ermöglicht Es Ihnen, eine private Verbindung zwischen dem FEATURE IN Ihrem Konto und dem Amazon Bedrock Service-Konto herzustellen. AWS PrivateLink ermöglicht ES BENUTZERN, mit Bedrock-Serviceressourcen zu kommunizieren, ohne dass öffentliche IP-Adressen erforderlich sind, um sicherzustellen, dass Ihre Daten nicht dem öffentlichen Internet offengelegt werden und damit Ihren Complianceanforderungen helfen.
Schweregrad Mittel
AWS Bedrock-Agents sollten Schutzläufe verwenden, wenn der Zugriff auf generative KI-Anwendungen ermöglicht wird
Description Guardrails für Amazon Bedrock verbessern die Sicherheit von generativen KI-Anwendungen, indem sowohl Benutzereingaben als auch modellgenerierte Antworten ausgewertet werden. Zu diesen Schutzläufen gehören Inhaltsfilter, mit denen schädliche Inhalte erkannt und gefiltert werden können. Insbesondere die Kategorie "Eingabeaufforderungsangriffe", die Sicherheitsmaßnahmen für Benutzeraufforderungen enthält, um Jailbreaks und Eingabeaufforderungen zu verhindern.
Schweregrad Mittel
AWS Bedrock sollte die Modellaufrufprotokollierung aktiviert haben.
Beschreibung: Mit der Aufrufprotokollierung können Sie die vollständigen Anforderungsdaten, Antwortdaten und Metadaten sammeln, die allen in Ihrem Konto ausgeführten Aufrufen zugeordnet sind. Auf diese Weise können Sie vergangene Aktivitäten nachvollziehen, wenn Sie Sicherheitsincidents untersuchen.
Schweregrad: Niedrig
GCP-KI-Empfehlungen
Ein privater Dienstendpunkt sollte für Vertex AI Online-Endpunkte (Vorschau) verwendet werden.
Beschreibung: Defender für Cloud hat festgestellt, dass ein privater Dienstendpunkt nicht für Vertex AI Online-Endpunkte konfiguriert ist. Private Endpunktverbindungen erzwingen eine sichere Kommunikation, indem private Verbindungen zum Endpunkt der Onlinevorhersage aktiviert werden. Konfigurieren Sie eine private Endpunktverbindung, um den Zugriff auf Datenverkehr nur aus bekannten Netzwerken zu ermöglichen und den Zugriff von allen anderen IP-Adressen zu verhindern.
Schweregrad Mittel
Der Stammzugriff sollte in Workbench-Instanzen deaktiviert werden (Vorschau)
Beschreibung: Defender für Cloud hat festgestellt, dass der Stammzugriff in der GCP Workbench-Instanz nicht deaktiviert ist. Um das Risiko eines versehentlichen oder böswilligen Systemschadens zu verringern, ist es wichtig, den Stammzugriff auf Ihre Google Cloud Vertex AI-Notizbuchinstanzen zu deaktivieren. Mit diesem Measure werden Administratorrechte innerhalb der Instanzen begrenzt, wodurch eine sicherere Umgebung sichergestellt wird.
Schweregrad Mittel
Öffentliche IP-Adressen sollten in Workbench-Instanzen deaktiviert werden (Vorschau)
Beschreibung: Defender für Cloud hat festgestellt, dass externe IP-Adressen in der GCP Workbench-Instanz konfiguriert wurden. Um ihre Angriffsfläche zu verringern, sollten Workbench-Instanzen keine öffentlichen IP-Adressen haben. Stattdessen sollten Instanzen hinter Lastenausgleichsmodulen konfiguriert werden, um die Gefährdung der Instanz im Internet zu minimieren.
Schweregrad Mittel
(Bei Bedarf aktivieren) Vom Kunden verwaltete Schlüssel sollten zum Verschlüsseln ruhender Daten in Vertex AI DataSets (Vorschau) verwendet werden.
Beschreibung: Defender für Cloud hat festgestellt, dass vom Kunden verwaltete Schlüssel nicht für Vertex AI DataSets verwendet werden. Die Verwendung von kundenseitig verwalteten Schlüsseln zum Verschlüsseln ruhender Daten bietet mehr Kontrolle über den Schlüssellebenszyklus, einschließlich Rotation und Verwaltung. Dies ist insbesondere für Organisationen mit entsprechenden Complianceanforderungen relevant. Mithilfe von vom Kunden verwalteten Schlüsseln können Sie sicherstellen, dass Ihre Daten mit von Ihnen gesteuerten Schlüsseln verschlüsselt werden, sodass Sie diese Schlüssel nach Bedarf verwalten und drehen können. Dieses hinzugefügte Steuerelement kann dazu beitragen, die Complianceanforderungen zu erfüllen und die Sicherheit Ihrer Daten zu verbessern.
Strenge Niedrig
Cloud monitoring should be used on GCP Workbench instance (Preview)
Beschreibung Defender für Cloud hat festgestellt, dass Die Cloudüberwachung in der GCP Workbench-Instanz nicht aktiviert ist. Die Aktivierung von Cloud Monitoring für Google Cloud Vertex AI-Notizbuchinstanzen ist unerlässlich, um Leistungsmetriken zu verfolgen, Probleme frühzeitig zu erkennen und einen optimalen Betrieb durch proaktive Überwachung und Warnungen sicherzustellen.
Strenge Niedrig
Das Herunterfahren im Leerlauf sollte auf Workbench-Instanzen aktiviert sein (Vorschau)
Beschreibung Defender für Cloud hat festgestellt, dass das Herunterfahren im Leerlauf in der GCP Workbench-Instanz nicht konfiguriert ist. Um Kosten zu optimieren und die Sicherheit zu verbessern, stellen Sie sicher, dass das Feature "Herunterfahren im Leerlauf" für Ihre Google Cloud Vertex AI-Notizbuchinstanzen aktiviert ist.
Strenge Niedrig