Teilen über


KI-Sicherheitsempfehlungen

In diesem Artikel werden alle KI-Sicherheitsempfehlungen aufgeführt, die möglicherweise in Microsoft Defender für Cloud angezeigt werden.

Die Empfehlungen, die in Ihrer Umgebung angezeigt werden, basieren auf den Ressourcen, die Sie schützen und auf Ihrer angepassten Konfiguration. Sie können die Empfehlungen im Portal sehen, die für Ihre Ressourcen gelten.

Informationen zu Aktionen, die Sie als Reaktion auf diese Empfehlungen ausführen können, finden Sie unter "Korrekturempfehlungen" in Defender für Cloud.

Azure-Empfehlungen

Gießerei-KI-Agent mit indirektem Eingabeaufforderungsinjektionsrisiko sollte den Menschen in der Schleifensteuerung für MCP-Toolaktionen (Vorschau) erfordern.

Beschreibung: Microsoft Defender hat den Agent identifiziert, der für die indirekte Eingabeaufforderungseinfügung anfällig ist, für die keine MCP-Toolsaktionen der Benutzergenehmigung erforderlich sind. Dies erhöht das Risiko erfolgreicher XPIA-Angriffe, bei denen Angreifer verborgene Anweisungen dazu verleiten, schädliche Aktionen auszuführen oder vertrauliche Informationen zu durchlecken. Das Hinzufügen des Steuerelements "Mensch in der Schleife", z. B. das Erfordern einer Benutzergenehmigung für MCP-Toolaktionen, könnte dazu beitragen, den Agent zu schützen und solche Angriffe zu blockieren.

Schweregrad: hoch

Gießerei-KI-Agent mit indirektem Eingabeaufforderungsinjektionsrisiko sollte erweiterte Guardrails-Steuerelemente verwenden (Vorschau)

Beschreibung: Microsoft Defender hat einen Agent identifiziert, der anfällig für die indirekte Eingabeaufforderungsinjektion (XPIA) ist, basierend auf seiner Toolkonfiguration und Schutzschienen, die unzureichend erzwungen werden. Bei einem XPIA-Angriff werden böswillige Anweisungen in der externen Datenquelle eines Agents, z. B. Websites, ausgeblendet, um diesen eingebetteten Text als legitime Anweisungen zu interpretieren, potenziell schädliche Aktionen auszuführen oder vertrauliche Informationen zu verlecken. Durch das Hinzufügen der Schutzschienen des Agenten könnte ein Indirektes Eingabeaufforderungsinjektionssteuerelement dazu beitragen, den Agent zu schützen und solche Angriffe zu blockieren.

Schweregrad: hoch

Microsoft Entra-ID sollte verwendet werden, wenn Microsoft Foundry mit dem Standardspeicherkonto verbunden wird (Vorschau)

Beschreibung: Defender für Cloud identifizierten anmeldeinformationsbasierten Zugriff beim Herstellen einer Verbindung mit dem Standardspeicherkonto in Microsoft Foundry. Dies stellt ein Risiko eines nicht autorisierten Zugriffs dar. Um das Risiko eines nicht autorisierten Zugriffs zu verringern, sollten Sie die schlüsselbasierte Autorisierung deaktivieren und stattdessen die Microsoft Entra-ID verwenden.

Schweregrad: hoch

Microsoft Entra-ID sollte beim Herstellen einer Verbindung mit Datenspeichern im Microsoft Foundry-Projekt verwendet werden (Vorschau)

Beschreibung: Defender für Cloud identifizierten anmeldeinformationsbasierten Zugriff beim Herstellen einer Verbindung mit dem Speicherkonto im Microsoft Foundry-Projekt. Dies stellt ein Risiko eines nicht autorisierten Zugriffs dar. Um das Risiko eines nicht autorisierten Zugriffs zu verringern, sollten Sie die schlüsselbasierte Autorisierung deaktivieren und stattdessen die Microsoft Entra-ID verwenden.

Schweregrad: hoch

Sicherheitsergebnisse sollten für KI-Modelle in Azure Machine Learning-Ressourcen (Vorschau) aufgelöst werden.

Beschreibung: Defender überprüft kontinuierlich KI-Modelle, die in Azure Machine Learning-Registrierungen und -Arbeitsbereichen gespeichert sind, auf Sicherheitsrisiken wie Serialisierungsrisiken und Schadsoftware. Diese Bewertungen helfen beim Identifizieren von Modellen, die falsch konfiguriert oder schädliche Inhalte enthalten können. Die Lösung dieser Ergebnisse ist entscheidend für die Aufrechterhaltung eines sicheren und vertrauenswürdigen KI-Entwicklungslebenszyklus, die Verringerung des Risikos von Datenschutzverletzungen und die Sicherstellung der Einhaltung bewährter Sicherheitsmethoden.

Schweregrad: hoch

Application Insights sollte in Microsoft Foundry (Vorschau) verwendet werden.

Beschreibung: Defender für Cloud hat festgestellt, dass Anwendungserkenntnisse in Microsoft Foundry nicht konfiguriert sind. Die KI Foundry verwendet Azure Application Insights, um Überwachungsinformationen zu Ihren bereitgestellten Modellen zu speichern. Dies stellt ein Risiko einer verzögerten Bedrohungserkennung und einer unwirksamen Reaktion auf Vorfälle dar.

Schweregrad: Mittel

Azure AI Agent sollte mit Betriebsanweisungen konfiguriert werden (Vorschau)

Beschreibung: Azure AI Agents, die nicht mit klaren Betriebsanweisungen konfiguriert sind, verhalten sich möglicherweise unvorhersehbar oder inkonsistent. Ohne definierte Anleitungen kann dieser Agent versehentlich auf Daten zugreifen, verarbeiten oder verfügbar machen, unangemessen auf Aufforderungen reagieren oder die Sicherheits- und Complianceanforderungen der Organisation nicht einhalten. Dieser Mangel an Kontrolle erhöht das Risiko von Datenlecks, nicht autorisierten Aktionen und die Fehlausrichtung mit Unternehmensgovernancerichtlinien.

Schweregrad: Mittel

Bei Azure KI Services-Ressourcen sollte der Schlüsselzugriff deaktiviert sein (lokale Authentifizierung deaktivieren).

Beschreibung: Der Schlüsselzugriff (lokale Authentifizierung) wird empfohlen, für die Sicherheit deaktiviert zu werden. Azure OpenAI Studio, in der Regel in Entwicklung/Tests verwendet, erfordert Schlüsselzugriff und funktioniert nicht, wenn der Schlüsselzugriff deaktiviert ist. Nachdem die Einstellung deaktiviert wurde, wird die Microsoft Entra-ID zur einzigen Zugriffsmethode, die die Aufrechterhaltung des Minimalberechtigungsprinzips und der granularen Kontrolle ermöglicht. Weitere Informationen

Diese Empfehlung ersetzt die alten Empfehlung Cognitive Services-Konten sollten lokale Authentifizierungsmethoden deaktiviert haben. Es war früher in der Kategorie Cognitive Services und Cognitive Search und wurde aktualisiert, um das Benennungsformat von Azure AI Services einzuhalten und die relevanten Ressourcen auszurichten.

Schweregrad: Mittel

Azure KI Services-Ressourcen sollten den Netzwerkzugriff einschränken.

Beschreibung: Indem Sie den Netzwerkzugriff einschränken, können Sie sicherstellen, dass nur zulässige Netzwerke auf den Dienst zugreifen können. Dies kann erreicht werden, indem Netzwerkregeln konfiguriert werden, sodass nur Anwendungen aus zulässigen Netzwerken auf die Azure AI-Dienstressource zugreifen können.

Diese Empfehlung ersetzt die alten Empfehlung Cognitive Services-Konten, die den Netzwerkzugriff einschränken sollten. Es war früher in der Kategorie Cognitive Services und Cognitive Search und wurde aktualisiert, um das Benennungsformat von Azure AI Services einzuhalten und an die relevanten Ressourcen auszurichten.

Schweregrad: Mittel

Beschreibung: Mit Azure Private Link können Sie Ihr virtuelles Netzwerk ohne öffentliche IP-Adresse an der Quelle oder am Ziel mit Azure-Diensten verbinden. Die Private Link-Plattform reduziert das Risiko von Datenlecks, indem die Konnektivität zwischen dem Consumer und den Diensten über das Azure-Backbone-Netzwerk verarbeitet wird.

Erfahren Sie mehr über private Links unter: Was ist Azure Private Link?

Diese Empfehlung ersetzt die alte Empfehlung Cognitive Services sollte einen privaten Link verwenden. Es war früher in den Kategorien "Datenempfehlungen" enthalten und wurde aktualisiert, um das Benennungsformat von Azure AI Services einzuhalten und die relevanten Ressourcen anzupassen.

Schweregrad: Mittel

Azure Databricks-Cluster müssen öffentliche IP-Adressen deaktivieren (Vorschau)

Beschreibung und zugehörige Richtlinie: Das Deaktivieren öffentlicher IP-Adressen von Clustern in Azure Databricks-Arbeitsbereichen verbessert die Sicherheit, indem sichergestellt wird, dass die Cluster nicht im öffentlichen Internet verfügbar gemacht werden. Weitere Informationen finden Sie unter Sichern der Clusterkonnektivität.

Schweregrad: Mittel

Azure Databricks-Arbeitsbereiche müssen sich in einem virtuellen Netzwerk befinden (Vorschau)

Beschreibung und zugehörige Richtlinie: Azure Virtual Networks bieten eine verbesserte Sicherheit und Isolation für Ihre Azure Databricks-Arbeitsbereiche sowie Subnetze, Zugriffssteuerungsrichtlinien und andere Features, um den Zugriff weiter einzuschränken. Weitere Informationen finden Sie unter Bereitstellen von Azure Databricks in Ihrem virtuellen Azure-Netzwerk.

Schweregrad: Mittel

Azure Databricks-Arbeitsbereiche sollten den öffentlichen Netzwerkzugriff deaktivieren (Vorschau)

Beschreibung und zugehörige Richtlinie: Durch das Deaktivieren des zugriffs auf öffentliche Netzwerke wird die Sicherheit verbessert, indem sichergestellt wird, dass die Ressource nicht im öffentlichen Internet verfügbar gemacht wird. Sie können die Offenlegung von Ressourcen steuern, indem Sie private Endpunkte erstellen. Weitere Informationen hierzu finden Sie unter Aktivieren von Azure Private Link.

Schweregrad: Mittel

Beschreibung und zugehörige Richtlinie: Mit Azure Private Link können Sie Ihre virtuellen Netzwerke ohne öffentliche IP-Adresse an der Quelle oder am Ziel mit Azure-Diensten verbinden. Die Private Link-Plattform verarbeitet die Konnektivität zwischen dem Consumer und den Diensten über das Azure-Backbone-Netzwerk. Durch das Zuordnen privater Endpunkte zu Azure Databricks-Arbeitsbereichen können Sie das Risiko von Datenlecks verringern. Weitere Informationen finden Sie unter Erstellen des Arbeitsbereichs und privater Endpunkte auf der Benutzeroberfläche des Azure-Portals.

Schweregrad: Mittel

Azure Machine Learning Computes müssen sich in einem virtuellen Netzwerk befinden (Vorschau)

Beschreibung und zugehörige Richtlinie: Azure Virtual Networks bieten eine verbesserte Sicherheit und Isolation für Ihre Azure Machine Learning Compute Clusters und Instanzen sowie Subnetze, Zugriffssteuerungsrichtlinien und andere Features, um den Zugriff weiter einzuschränken. Wenn eine Computeressource mit einem virtuellen Netzwerk konfiguriert wird, ist sie nicht öffentlich adressierbar, und auf das virtuelle Netzwerk kann nur über VMs und Anwendungen innerhalb des virtuellen Netzwerks zugegriffen werden.

Schweregrad: Mittel

Lokale Authentifizierungsmethoden für Azure Machine Learning-Computeressourcen deaktivieren (Vorschau)

Beschreibung und verwandte Richtlinie: Durch das Deaktivieren lokaler Authentifizierungsmethoden wird die Sicherheit verbessert, indem sichergestellt wird, dass Machine Learning Computes Azure Active Directory-Identitäten ausschließlich für die Authentifizierung erfordert. Weitere Informationen finden Sie unter Azure Policy-Kontrollmechanismen zur Einhaltung gesetzlicher Bestimmungen für Azure Machine Learning.

Schweregrad: Mittel

Azure Machine Learning-Arbeitsbereiche sollten den Zugriff auf öffentliche Netzwerke deaktivieren (Vorschau)

Beschreibung und verwandte Richtlinie: Durch das Deaktivieren des Zugriffs auf öffentliche Netzwerke wird die Sicherheit verbessert, indem sichergestellt wird, dass die Arbeitsbereiche für maschinelles Lernen nicht im öffentlichen Internet verfügbar gemacht werden. Sie können die Offenlegung von Arbeitsbereichen steuern, indem Sie stattdessen private Endpunkte erstellen. Weitere Informationen finden Sie unter Konfigurieren eines privaten Endpunkts für Azure Machine Learning-Arbeitsbereich.

Schweregrad: Mittel

Azure Machine Learning-Computeinstanzen müssen neu erstellt werden, um die neuesten Softwareupdates zu erhalten (Vorschau)

Beschreibung und zugehörige Richtlinie: Stellen Sie sicher, dass Azure Machine Learning-Computeinstanzen auf dem neuesten verfügbaren Betriebssystem ausgeführt werden. Die Sicherheit wird verbessert und Sicherheitsrisiken werden verringert, indem sie mit den neuesten Sicherheitspatches ausgeführt werden. Weitere Informationen finden Sie unter Verwaltung von Sicherheitsrisiken für Azure Machine Learning.

Schweregrad: Mittel

Verbundene KI-Agents sollten mit Anweisungen zum Aufrufen dieser Agents konfiguriert werden (Vorschau)

Beschreibung: Defender für Cloud hat festgestellt, dass beim Definieren der Verbindung zwischen Agents detaillierte Anweisungen dazu fehlen, wie ein verbundener Agent aufgerufen werden soll. Die Bereitstellung klarer Anweisungen während der Verbindung ist unerlässlich, um sicherzustellen, dass Agents innerhalb ihrer definierten Grenzen arbeiten und das Risiko unvorhersehbarer oder manipulierter Ausgaben verringern. Gut definierte Anweisungen ermöglichen konsistente, sichere Interaktionen und schützen vor Risiken wie unbeabsichtigter Toolausführung.

Schweregrad: Mittel

Die Guardrails von Foundry AI Agent sollten Jailbreak-Steuerung enthalten (Vorschau)

Beschreibung: Microsoft Defender hat festgestellt, dass die Guardrails des KI-Agents nicht mit Jailbreak-Steuerung konfiguriert sind. Jailbreak-Angriffe sind Benutzeraufforderungen, die entwickelt wurden, um das generative KI-Modell in die Ausstellung von Verhaltensweisen zu provozieren, die es trainiert wurde, um die in den Anweisungen festgelegten Regeln zu vermeiden oder zu unterbrechen. Durch aktivieren dieses Steuerelement können Sie den Agent schützen und solche Angriffe blockieren.

Schweregrad: Mittel

Das MCP-Tool des Foundry Agents sollte mit der Liste der zulässigen Tools (Vorschau) konfiguriert werden.

Beschreibung: Microsoft Defender hat festgestellt, dass das MCP-Tool des KI-Agents ohne liste zulässiger Tools konfiguriert ist. Die Liste der zulässigen Tools stellt sicher, dass das MCP-Tool nur genehmigte Tools aufrufen kann, um versehentliche oder böswillige Verwendung nicht autorisierter Funktionen zu verhindern. Das Konfigurieren der Liste der zulässigen Tools könnte dazu beitragen, den Agent vor Missbrauchsbedrohungen zu schützen.

Schweregrad: Mittel

Netzwerkverbindungen sollten auf Microsoft Foundry (Vorschau) beschränkt sein.

Beschreibung: Defender für Cloud identifizierten öffentlichen Netzwerkzugriff für alle Netzwerke in Microsoft Foundry aktiviert. Dies stellt ein Risiko für die Gefährdung externer Bedrohungen dar und kann zu unbefugten Zugriffen und Datenschutzverletzungen führen. Indem Sie den Netzwerkzugriff einschränken, können Sie sicherstellen, dass nur zulässige Netzwerke auf den Dienst zugreifen können.

Schweregrad: Mittel

Ressourcenprotokolle in Azure Databricks-Arbeitsbereichen müssen aktiviert sein (Vorschau)

Beschreibung und verwandte Richtlinie: Mithilfe von Ressourcenprotokollen können Aktivitätspfade für Untersuchungszwecke neu erstellt werden, wenn ein Sicherheitsvorfall auftritt oder wenn Ihr Netzwerk kompromittiert wird.

Schweregrad: Mittel

Ressourcenprotokolle im Azure Machine Learning-Arbeitsbereich müssen aktiviert sein (Vorschau)

Beschreibung und verwandte Richtlinie: Mithilfe von Ressourcenprotokollen können Aktivitätspfade für Untersuchungszwecke neu erstellt werden, wenn ein Sicherheitsvorfall auftritt oder wenn Ihr Netzwerk kompromittiert wird.

Schweregrad: Mittel

[Aktivieren, falls erforderlich] Vom Kunden verwaltete Schlüssel sollten zum Verschlüsseln von Daten in Microsoft Foundry (Vorschau) verwendet werden.

Beschreibung: Defender für Cloud hat festgestellt, dass von Microsoft verwaltete Schlüssel zum Verschlüsseln von Daten in Microsoft Foundry verwendet werden. Dies stellt ein Risiko dar, dass Organisationen mit verwandten Complianceanforderungen keine Vorschriften einhalten. Die Verwendung von vom Kunden verwalteten Schlüsseln (CMK) zum Verschlüsseln ruhender Daten bietet mehr Kontrolle über den Schlüssellebenszyklus, einschließlich Drehung und Verwaltung, und ist häufig erforderlich, um Compliancestandards zu erfüllen. Standardmäßig wird dies nicht bewertet. Eine Anwendung sollte nur bei Erzwingen durch Compliance- oder restriktive Richtlinienanforderungen erfolgen. Wenn diese Option nicht aktiviert ist, werden die Daten mit von Microsoft verwalteten Schlüsseln verschlüsselt. Um diese Empfehlung zu implementieren, aktualisieren Sie den Parameter "Effect" in der Sicherheitsrichtlinie für den entsprechenden Bereich.

Schweregrad: Mittel

(Bei Bedarf aktivieren) Azure KI Services-Ressourcen sollten ruhende Daten mit einem kundenseitig verwalteten Schlüssel (Customer-Managed Key, CMK) verschlüsseln

Beschreibung: Die Verwendung von vom Kunden verwalteten Schlüsseln zum Verschlüsseln ruhender Daten bietet mehr Kontrolle über den Schlüssellebenszyklus, einschließlich Drehung und Verwaltung. Dies ist insbesondere für Organisationen mit entsprechenden Complianceanforderungen relevant.

Standardmäßig wird dies nicht bewertet. Eine Anwendung sollte nur bei Erzwingen durch Compliance- oder restriktive Richtlinienanforderungen erfolgen. Wenn keine Aktivierung erfolgt ist, werden die Daten mit plattformseitig verwalteten Schlüsseln verschlüsselt. Für die Implementierung aktualisieren Sie den Effect-Parameter in der Sicherheitsrichtlinie für den entsprechenden Geltungsbereich. (Verwandte Richtlinie: Azure AI Services-Ressourcen sollten ruhende Daten mit einem vom Kunden verwalteten Schlüssel (CMK) verschlüsseln.

Diese Empfehlung ersetzt die alten Empfehlung Cognitive Services-Konten sollten die Datenverschlüsselung mithilfe von Kundenschlüsseln aktivieren. Es war früher in den Kategorien "Datenempfehlungen" enthalten und wurde aktualisiert, um das Benennungsformat von Azure AI Services einzuhalten und die relevanten Ressourcen anzupassen.

Schweregrad: Niedrig

Inhaltsfilterung sollte für das modell verwendet werden, das in Microsoft Foundry (Vorschau) bereitgestellt wird.

Beschreibung: Defender für Cloud hat festgestellt, dass die Inhaltsfilterung im in Microsoft Foundry bereitgestellten Modell deaktiviert ist. Dies stellt ein erhebliches Risiko für das KI-Modell dar, da es unangemessenen oder schädlichen Inhalten erlauben kann, vom Modell verarbeitet und generiert zu werden. Ohne Inhaltsfilterung ist das Modell anfällig für das Generieren von Ausgaben, die anstößig, irreführend oder schädlich sein könnten, was zu Reputationsschäden, rechtlichen Verbindlichkeiten und einem Verlust des Vertrauens der Benutzer führen kann. Es ist von entscheidender Bedeutung, die Inhaltsfilterung zu ermöglichen, um sicherzustellen, dass das KI-Modell ethischen Standards entspricht und sichere und zuverlässige Ausgaben erzeugt.

Schweregrad: Niedrig

In Azure KI Services sollten Diagnoseprotokolle aktiviert sein.

Beschreibung: Aktivieren Sie Protokolle für Azure AI-Diensteressourcen. Auf diese Weise können Sie Aktivitätspfade zu Untersuchungszwecken neu erstellen, wenn ein Sicherheitsvorfall auftritt oder Ihr Netzwerk kompromittiert wird.

Diese Empfehlung ersetzt die alten Empfehlungsdiagnoseprotokolle in Suchdienst s sollten aktiviert sein. Es war früher in der Kategorie Cognitive Services und Cognitive Search und wurde aktualisiert, um das Benennungsformat von Azure AI Services einzuhalten und die relevanten Ressourcen auszurichten.

Schweregrad: Niedrig

AWS KI-Empfehlungen

AWS Bedrock AI Agent sollte mit Betriebsanweisungen konfiguriert werden (Vorschau)

Beschreibung: AWS Bedrock AI Agents, die nicht mit klaren Betriebsanweisungen konfiguriert sind, verhalten sich möglicherweise unvorhersehbar oder inkonsistent. Ohne definierte Anleitungen kann dieser Agent versehentlich auf Daten zugreifen, verarbeiten oder verfügbar machen, unangemessen auf Aufforderungen reagieren oder die Sicherheits- und Complianceanforderungen der Organisation nicht einhalten. Dieser Mangel an Kontrolle erhöht das Risiko von Datenlecks, nicht autorisierten Aktionen und die Fehlausrichtung mit Unternehmensgovernancerichtlinien.

Schweregrad: Mittel

AWS Bedrock-Agents sollten Schutzläufe verwenden, wenn der Zugriff auf generative KI-Anwendungen ermöglicht wird

Beschreibung: Guardrails für Amazon Bedrock verbessern die Sicherheit von generativen KI-Anwendungen, indem sowohl Benutzereingaben als auch modellgenerierte Antworten ausgewertet werden. Zu diesen Schutzläufen gehören Inhaltsfilter, mit denen schädliche Inhalte erkannt und gefiltert werden können. Insbesondere die Kategorie "Eingabeaufforderungsangriffe", die Sicherheitsmaßnahmen für Benutzeraufforderungen enthält, um Jailbreaks und Eingabeaufforderungen zu verhindern. Weitere Informationen finden Sie unter: Inhaltsfilter - Amazon Bedrock.

Schweregrad: Mittel

Beschreibung: Amazon Bedrock ENDPOINT powered by AWS PrivateLink, ermöglicht Es Ihnen, eine private Verbindung zwischen dem FEATURE IN Ihrem Konto und dem Amazon Bedrock Service-Konto herzustellen. AWS PrivateLink ermöglicht ES BENUTZERN, mit Bedrock-Serviceressourcen zu kommunizieren, ohne dass öffentliche IP-Adressen benötigt werden müssen, wodurch die Risiken reduziert werden, die mit der Veröffentlichung von Daten an das öffentliche Internet verbunden sind und damit Ihren Complianceanforderungen helfen.

Schweregrad: Mittel

AWS Bedrock sollte die Modellaufrufprotokollierung aktiviert haben.

Beschreibung: Mit der Aufrufprotokollierung können Sie die vollständigen Anforderungsdaten, Antwortdaten und Metadaten sammeln, die allen in Ihrem Konto ausgeführten Aufrufen zugeordnet sind. Auf diese Weise können Sie vergangene Aktivitäten nachvollziehen, wenn Sie Sicherheitsincidents untersuchen.

Schweregrad: Niedrig

GCP-KI-Empfehlungen

Ein privater Dienstendpunkt sollte für Vertex AI Online-Endpunkte verwendet werden.

Beschreibung: Defender für Cloud hat festgestellt, dass ein privater Dienstendpunkt nicht für Vertex AI Online-Endpunkte konfiguriert ist.

Private Endpunktverbindungen erzwingen sichere Kommunikation, indem private Verbindungen mit dem Onlinevorhersagen-Endpunkt aktiviert werden. Konfigurieren Sie eine private Endpunktverbindung, um den Zugriff auf Datenverkehr nur aus bekannten Netzwerken zu ermöglichen und den Zugriff von allen anderen IP-Adressen zu verhindern.

Schweregrad: Mittel

Öffentliche IP-Adressen sollten auf Workbench-Instanzen deaktiviert werden

Beschreibung: Defender für Cloud hat festgestellt, dass externe IP-Adressen in der GCP Workbench-Instanz konfiguriert wurden.

Um ihre Angriffsfläche zu verringern, sollten Workbench-Instanzen keine öffentlichen IP-Adressen haben. Stattdessen sollten Instanzen hinter Lastenausgleichsmodulen konfiguriert werden, um die Gefährdung der Instanz im Internet zu minimieren.

Schweregrad: Mittel

Der Stammzugriff sollte auf Workbench-Instanzen deaktiviert werden.

Beschreibung: Defender für Cloud hat festgestellt, dass der Stammzugriff in der GCP Workbench-Instanz nicht deaktiviert ist.

Um das Risiko eines versehentlichen oder böswilligen Systemschadens zu verringern, ist es wichtig, den Stammzugriff auf Ihre Google Cloud Vertex AI-Notizbuchinstanzen zu deaktivieren. Mit diesem Measure werden Administratorrechte innerhalb der Instanzen begrenzt, wodurch eine sicherere Umgebung sichergestellt wird.

Schweregrad: Mittel

Cloud monitoring should be used on GCP Workbench instance

Beschreibung: Defender für Cloud hat festgestellt, dass Die Cloudüberwachung in der GCP Workbench-Instanz nicht aktiviert ist.

Die Aktivierung von Cloud Monitoring für Google Cloud Vertex AI-Notizbuchinstanzen ist unerlässlich, um Leistungsmetriken zu verfolgen, Probleme frühzeitig zu erkennen und einen optimalen Betrieb durch proaktive Überwachung und Warnungen sicherzustellen.

Schweregrad: Niedrig

Das Herunterfahren im Leerlauf sollte auf Workbench-Instanzen aktiviert sein.

Beschreibung: Defender für Cloud hat festgestellt, dass das Herunterfahren im Leerlauf in der GCP Workbench-Instanz nicht konfiguriert ist.

Um Kosten zu optimieren und die Sicherheit zu verbessern, stellen Sie sicher, dass das Feature "Herunterfahren im Leerlauf" für Ihre Google Cloud Vertex AI-Notizbuchinstanzen aktiviert ist.

Schweregrad: Niedrig

[Aktivieren, falls erforderlich] Vom Kunden verwaltete Schlüssel sollten zum Verschlüsseln ruhender Daten in Vertex AI DataSets verwendet werden.

Beschreibung: Defender für Cloud hat festgestellt, dass vom Kunden verwaltete Schlüssel nicht für Vertex AI DataSets verwendet werden.

Die Verwendung von kundenseitig verwalteten Schlüsseln zum Verschlüsseln ruhender Daten bietet mehr Kontrolle über den Schlüssellebenszyklus, einschließlich Rotation und Verwaltung. Dies ist insbesondere für Organisationen mit entsprechenden Complianceanforderungen relevant.

Mithilfe von vom Kunden verwalteten Schlüsseln können Sie sicherstellen, dass Ihre Daten mit von Ihnen gesteuerten Schlüsseln verschlüsselt werden, sodass Sie diese Schlüssel nach Bedarf verwalten und drehen können. Dieses hinzugefügte Steuerelement kann dazu beitragen, die Complianceanforderungen zu erfüllen und die Sicherheit Ihrer Daten zu verbessern.

Schweregrad: Niedrig