Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
In diesem Artikel wird der Organisationsprozess zum Schützen von KI-Workloads (künstliche Intelligenz) beschrieben. Im Vordergrund stehen dabei die Vertraulichkeit, Integrität und Verfügbarkeit (Confidentiality, Integrity and Availability, CIA) von KI. Effektive Sicherheitsmaßnahmen verringern das Risiko einer Kompromittierung, indem sie die Vertraulichkeit, Integrität und Verfügbarkeit von KI-Modellen und -Daten schützen. Eine sichere KI-Umgebung steht auch im Einklang mit den Sicherheitszielen des Unternehmens und stärkt das Vertrauen in KI-gesteuerte Prozesse.
Entdecken von KI-Sicherheitsrisiken
KI-Workloads stellen eindeutige Sicherheitsrisiken vor, die Angreifer für den Zugriff auf Daten nutzen, Systeme unterbrechen oder Ausgaben manipulieren können. Identifizieren und bewerten Sie diese Risiken regelmäßig, um Geschäftsvorgänge zu schützen, Vertrauen zu wahren und KI-Systeme vor Missbrauch zu schützen.
Identifizieren Sie KI-Sicherheitsrisiken. KI-Systeme stellen sich ständig weiterentwickelnde Bedrohungen dar, die eine spezielle Bewertung erfordern. Verwenden Sie Frameworks wie MITRE ATLAS und OWASP Generative KI-Risiko zum Identifizieren von Risiken in allen KI-Workloads.
Identifizieren Sie KI-Datenrisiken. Vertrauliche Daten in KI-Workflows erhöhen das Risiko von Insider-Bedrohungen oder Datenlecks. Verwenden Sie Tools wie Microsoft Purview Insider Risk Management , um unternehmensweite Datenrisiken zu bewerten und basierend auf der Datenempfindlichkeit zu priorisieren.
Identifizieren sie KI-Modellrisiken. Angreifer können Modellausgaben extrahieren oder bearbeiten, um auf private Informationen zuzugreifen oder Schwachstellen auszunutzen. Testmodelle für Sicherheitsrisiken wie Datenlecks, Eingabeaufforderungen und Modellinversion mithilfe von Techniken zur Verhinderung von Datenverlust und adversarialen Simulationen.
Führen Sie rote Teamtests durch. Reale Tests entdecken unbekannte Risiken, die statische Rezensionen verpassen. Rotes Team sowohl generative KI - als auch nichtgenerative KI-Modelle zum Simulieren von Angriffen. Folgen Sie den folgenden Empfehlungen:
Bewerten von Systemfunktionen und -kontext. Zielen Sie auf Tests ab, indem Sie den Zweck des Systems und die damit verbundenen Risiken verstehen. Gehen Sie von den potenziellen Auswirkungen aus, um sinnvolle Angriffsstrategien zu entwickeln.
Verwenden Sie zuerst einfache Angriffstechniken. Viele Real-World-Verstöße basieren auf Techniken mit niedriger Ressource. Beginnen Sie mit grundlegenden Eingabeaufforderungen und Missbrauchsszenarien, bevor Sie zu komplexen Methoden eskalieren.
Unterscheiden Sie Red Teaming von Benchmarking. Das KI-Red-Team deckt unbekannte Risiken auf. Benchmarking bewertet bekannte Schwachstellen. Priorisieren Sie das Ermitteln unbekannter Probleme, anstatt bekannte Probleme zu messen.
Automatisieren Sie, um die Risikoabdeckung zu erweitern. Verwenden Sie die Automatisierung, um die Angriffsabdeckung zu skalieren, jedoch überprüfen Sie die Ergebnisse, um differenzierte Risiken zu erfassen. Verwenden Sie Tools wie PyRIT , um KI-Systeme im großen Maßstab zu testen.
Priorisieren Sie das menschliche Urteilsvermögen beim KI-Red-Team. Automatisierung unterstützt Tests, aber verwenden Sie menschliche Erkenntnisse, um Risiken im Zusammenhang mit Voreingenommenheit, Ethik und unbeabsichtigtes Verhalten zu erkennen.
Entwickeln Sie zuverlässige Methoden, um verantwortungsvolle KI-Fehler zu messen. Verantwortungsvolle KI-Fehler treten auf, wenn KI-Systeme gegen die Prinzipien der verantwortungsvollen KI verstoßen. Im Gegensatz zu Sicherheitsrisiken sind diese Fehler aufgrund ihrer subjektiven, sozialen und ethischen Auswirkungen schwieriger zu definieren und zu messen. Verwenden Sie strukturierte Szenarien, um KI-Verhalten zu bewerten, das ethische Prinzipien verletzt, auch wenn Sicherheitskontrollen bestehen.
Sichern Sie sowohl herkömmliche als auch KI-spezifische Bedrohungen. Schützen Sie Systeme vor herkömmlichen Bedrohungen und KI-gezielten Angriffen, z. B. Eingabeaufforderungen oder Datenexfiltration.
Weitere Informationen finden Sie im Dokument Lessons from red teaming 100 generative AI products.
Führen Sie regelmäßige Risikobewertungen durch. Neue Bedrohungen können entstehen, wenn SICH KI-Modelle, Nutzungs- und Bedrohungsakteure entwickeln. Führen Sie wiederkehrende Bewertungen aus, um Sicherheitsrisiken in Modellen, Datenpipelinen und Bereitstellungsumgebungen zu identifizieren, und verwenden Sie Ergebnisse, um die Risikominderung zu unterstützen.
Schützen von KI-Ressourcen und -Daten
KI-Systeme erhöhen die Risikoexposition des Unternehmens durch neue Daten, Infrastruktur und Angriffsflächen. Wenden Sie einheitliche Sicherheitskontrollen an, um dieses Risiko zu verwalten und vertrauliche Ressourcen zu schützen.
Schützen von KI-Ressourcen
KI-Ressourcen unterstützen kritische Geschäftsfunktionen und können Ziele für Missbrauch oder Kompromittierung werden. Inventarisieren, Konfigurieren und Steuern aller Modelle, Dienste und Infrastruktur mit standardisierten Sicherheitskontrollen.
Richten Sie ein zentrales KI-Ressourceninventar ein. Nicht nachverfolgte Ressourcen erstellen Sicherheitsrisiken, die Angreifer ausnutzen können. Verwenden Sie Tools wie Azure Resource Graph Explorer und Microsoft Defender for Cloud, um einen vollständigen Bestand an Modellen, Daten und Infrastruktur zu erstellen und zu verwalten. Microsoft Defender for Cloud kann generative KI-Workloads ermitteln und generative KI-Artefakte vor der Bereitstellung identifizieren.
Sichern Sie Azure KI-Plattformen. Inkonsistente Konfigurationen schaffen Sicherheitsrisiken auf KI-Systemen. Erzwingen Sie Azure-Sicherheitsgrundlagen und befolgen Sie Azure-Dienstleitfäden für sicherheitsrelevante Anleitungen.
Wenden Sie workloadspezifische Sicherheitskontrollen an. KI-Workloads auf PaaS und IaaS weisen unterschiedliche Risiken und Kontrollen auf. Verwenden Sie maßgeschneiderte Anleitungen für KI auf Azure-Plattformdiensten (PaaS) und AI in der Azure-Infrastruktur (IaaS):
Schützen von KI-Daten
KI-Daten umfassen vertrauliche Informationen, die Angreifer exfiltrieren, manipulieren oder missbrauchen können. Schützen Sie KI-Daten, indem Sie Zugriffskontrollen erzwingen, die Nutzung überwachen und Ressourcen mit hohem Risiko isolieren.
Definieren und verwalten Sie Datengrenzen. Falsch ausgerichtete Datenexposition verursacht Compliance- und Datenschutzrisiken. Ordnen Sie jede AI-Arbeitslast Datasets zu, die für ihre Zielgruppe geeignet sind, und beschränken Sie den geteilten Zugriff. KI-Anwendungen, die für alle Mitarbeiter zugänglich sind, sollten nur Daten verarbeiten, die für alle Mitarbeiter geeignet sind. KI-Anwendungen mit Internetzugriff müssen Daten verwenden, die für den öffentlichen Gebrauch geeignet sind. Verwenden Sie separate Datasets oder Umgebungen für verschiedene KI-Anwendungen, um versehentliche Datenzugriffe zu verhindern. Erwägen Sie die Verwendung der Datensicherheitstools von Microsoft Purview, um Ihre Daten zu schützen.
Steuern des Datenzugriffs. Schwache Zugriffssteuerungen ermöglichen nicht autorisierten Datenzugriff. Fordern Sie die Überprüfung auf Benutzerebene an, und beschränken Sie Berechtigungen basierend auf den geringsten Berechtigungen.
Verwalten Sie einen Datenkatalog. Nicht nachverfolgte Datenquellen erhöhen das Risiko und verringern die Effektivität der Governance. Katalog AI-bezogene Daten, einschließlich Speicherorte und Zugriffsdetails. Scannen und Klassifizieren von Datenempfindlichkeit und Zugriffsebene. Erwägen Sie die Verwendung des Microsoft Purview-Datenkatalogs.
Nachverfolgen von Änderungen an der Datenempfindlichkeit. Die Datenklassifizierung kann sich ändern, wenn sich die Verwendung oder der Inhalt ändert. Überwachen Sie Vertraulichkeitsstufen, und entfernen Sie Daten mit hohem Risiko aus allgemeinen KI-Workloads. Verwenden Sie Ihren Datenkatalog, um Informationen zu überwachen, die in KI-Workloads verwendet werden.
Schützen Sie KI-Artefakte. Angreifer können KI-Modelle und Datensätze stehlen, manipulieren oder rückentwickeln. Speichern Sie Artefakte in privaten, verschlüsselten Umgebungen mit strengen Zugriffskontrollen. Speichern Sie KI-Modelle und -Datasets hinter privaten Endpunkten und in sicheren Umgebungen wie Azure Blob Storage und dedizierten Arbeitsbereichen. Wenden Sie strikte Zugriffsrichtlinien und eine strenge Verschlüsselung an, um KI-Artefakte vor nicht autorisiertem Zugriff oder Diebstahl zu schützen und Datenpoisoning zu verhindern.
Schützen Sie sensible Daten. Vertrauliche Daten, die in ungesicherten Umgebungen verarbeitet werden, können durchsickern oder offengelegt werden. Verwenden Sie sanitisierte Teilmengen und isolieren Sie Verarbeitungsumgebungen mit Verschlüsselung, Überwachung und Netzwerkeinschränkungen.
Schulen Sie Mitarbeiter auf KI-spezifische Risiken. Missbrauch und Fehlkonfigurationen stammen häufig aus menschlichem Fehler. Stellen Sie rollenbasierte Schulungen zu KI-Sicherheit, Datenverarbeitung und Bedrohungsbewusstsein für alle KI-Projektteams bereit.
Erkennen von KI-Sicherheitsbedrohungen
KI-Systeme stehen vor sich entwickelnden Bedrohungen, die ohne Warnung entstehen oder eskalieren können. Organisationen müssen diese Bedrohungen schnell erkennen und mit minimaler Verzögerung reagieren.
Erkennen von KI-Risiken. KI-Workloads führen dynamische und ausgeblendete Bedrohungen ein, die statische Bewertungen nicht erfassen können. Automatisieren Sie die Bedrohungserkennung und -reaktion für generative KI-Risiken. Verwenden Sie die KI-Sicherheitsstatusverwaltung in Microsoft Defender for Cloud, um die Erkennung und Behebung von generierenden KI-Risiken zu automatisieren.
Erkennen von KI-Sicherheitsvorfällen. Nicht erkannte Vorfälle können zu Datenverlusten, Modellkompromittierung oder Dienstunterbrechungen führen. Erstellen und testen Sie einen Plan zur Reaktion auf Vorfälle, der sich auf KI konzentriert, und überwachen Sie kontinuierlich indikatoren für kompromittierte Maßnahmen, um eine schnelle Entschärfung auszulösen.
Setzen Sie workloadspezifische Überwachung ein. KI-Workloads auf PaaS und IaaS haben unterschiedliche Überwachungsanforderungen. Verwenden Sie Anleitungen für KI in Azure PaaS und AI in Azure IaaS:
Nächste Schritte
Das Steuern, Verwalten und Schützen von KI sind fortlaufende Prozesse, die Sie regelmäßig durchführen müssen. Befassen Sie sich bei Bedarf nochmals mit der KI-Strategie, dem KI-Plan und der KI-Bereitschaft. Finden Sie mithilfe der Checklisten für die Einführung von KI heraus, wie Ihr nächster Schritt aussehen sollte.