Freigeben über


Erkunden von Risiken für generative KI-Artefakte vor der Bereitstellung

Der Plan Defender Cloud Security Posture Management (CSPM) in Microsoft Defender for Cloud hilft Ihnen, die Sicherheitslage von generativen KI-Apps zu verbessern, indem er Sicherheitslücken in generativen KI-Bibliotheken identifiziert, die in Ihren KI-Artefakten wie Container-Images und Code-Repositorys vorhanden sind. In diesem Artikel erfahren Sie, wie Sie die Sicherheitsrisiken für diese Anwendungen ermitteln und identifizieren können.

Voraussetzungen

Identifizieren Sie Container, die auf anfälligen generativen KI-Containerimages ausgeführt werden

Der Cloudsicherheitsexplorer kann verwendet werden, um Container zu identifizieren, auf denen generative KI-Container-Images mit bekannten Sicherheitslücken ausgeführt werden.

  1. Melden Sie sich beim Azure-Portal an.

  2. Suchen Sie nach Microsoft Defender for Cloud>Cloudsicherheits-Explorer, und wählen Sie dies aus.

  3. Wählen Sie die Abfragevorlage Container, die Containerimages mit bekannten generativen KI-Sicherheitsrisiken ausführen aus.

    Screenshot, der zeigt, wo Sie die generative KI-Abfrage für Sicherheitslücken in Containern finden können.

  4. Klicken Sie auf Suchen.

  5. Wählen Sie ein Ergebnis aus, um die Details zu überprüfen.

    Screenshot, der ein Beispiel für die Ergebnisse der Abfrage nach Sicherheitslücken in Images zeigt.

  6. Wählen Sie einen Knoten aus, um die Ergebnisse zu überprüfen.

    Screenshot, der die Details des ausgewählten Container-Knotens zeigt.

  7. Wählen Sie im Abschnitt Einblicke eine CVE-ID aus dem Dropdownmenü aus.

  8. Wählen Sie Seite „Sicherheitsrisiko“ öffnen aus.

  9. Korrigieren Sie die Empfehlung.

Identifizieren anfälliger generativer KI-Coderepositorys

Der Cloudsicherheitsexplorer kann verwendet werden, um anfällige generative KI-Coderepositorys zu identifizieren, die Azure OpenAI bereitstellen.

  1. Melden Sie sich beim Azure-Portal an.

  2. Suchen Sie nach Microsoft Defender for Cloud>Cloudsicherheits-Explorer, und wählen Sie dies aus.

  3. Wählen Sie die Abfragevorlage Sicherheitslücken in der generativen KI, die Azure OpenAI bereitstellt aus.

    Screenshot, der zeigt, wo Sie die generative KI-Abfrage für Sicherheitslücken in Coderepositorys finden können.

  4. Klicken Sie auf Suchen.

  5. Wählen Sie ein Ergebnis aus, um die Details zu überprüfen.

    Screenshot, der ein Beispiel für die Ergebnisse der Abfrage nach Sicherheitslücken zeigt.

  6. Wählen Sie einen Knoten aus, um die Ergebnisse zu überprüfen.

    Screenshot, der die Details des ausgewählten Sicherheitslücken-Knotens zeigt.

  7. Wählen Sie im Abschnitt Einblicke eine CVE-ID aus dem Dropdownmenü aus.

  8. Wählen Sie Seite „Sicherheitsrisiko“ öffnen aus.

  9. Korrigieren Sie die Empfehlung.