Partager via


Alertes pour les charges de travail IA

Cet article répertorie les alertes de sécurité que vous pouvez obtenir pour les charges de travail IA de Microsoft Defender pour le cloud et les plans Microsoft Defender que vous avez activés. Les alertes présentées dans votre environnement dépendent des ressources et services que vous protégez et de votre configuration personnalisée.

Remarque

Certaines des alertes récemment ajoutées alimentées par Veille des menaces Microsoft Defender et Microsoft Defender pour point de terminaison peuvent être non documentées.

Découvrez comment répondre à ces alertes.

Découvrez comment exporter des alertes.

Notes

Les alertes provenant de différentes sources peuvent prendre différentes durées d’affichage. Par exemple, l’affichage des alertes qui nécessitent une analyse du trafic réseau peut prendre plus de temps que pour les alertes liées à des processus suspects s’exécutant sur des machines virtuelles.

Alertes de charge de travail IA

Détection de tentatives de vol d’informations d’identification sur un déploiement de modèle Azure OpenAI

(IA. Azure_CredentialTheftAttempt)

Description : l’alerte de vol d’informations d’identification est conçue pour avertir le SOC lorsque les informations d’identification sont détectées dans les réponses de modèle GenAI à une invite utilisateur, indiquant une violation potentielle. Cette alerte est essentielle pour détecter les cas de fuite ou de vol d’informations d’identification, qui sont uniques à l’IA générative et peuvent avoir des conséquences graves si elles réussissent.

Tactiques MITRE : Accès aux informations d’identification, Mouvement latéral, Exfiltration

Gravité : moyenne

Une tentative de jailbreak sur un déploiement de modèle Azure OpenAI a été bloquée par les boucliers d’invite de sécurité de contenu Azure AI

(IA. Azure_Jailbreak.ContentFiltering.BlockedAttempt)

Description : L’alerte Jailbreak, effectuée à l’aide d’une technique d’injection directe d’invite, est conçue pour informer le SOC qu’il y a eu une tentative de manipulation de l’invite système pour contourner les garanties de l’IA générative, accéder potentiellement aux données sensibles ou aux fonctions privilégiées. Il a indiqué que de telles tentatives ont été bloquées par Azure Responsible AI Content Safety (AKA Prompt Shields), garantissant ainsi l’intégrité des ressources IA et de la sécurité des données.

Tactiques MITRE : Escalade de privilèges, Évasion de défense

Gravité : moyenne

Une tentative de jailbreak sur un déploiement de modèle Azure OpenAI a été détectée par les boucliers d’invite de sécurité de contenu Azure AI

(IA. Azure_Jailbreak.ContentFiltering.DetectedAttempt)

Description : L’alerte Jailbreak, effectuée à l’aide d’une technique d’injection directe d’invite, est conçue pour informer le SOC qu’il y a eu une tentative de manipulation de l’invite système pour contourner les garanties de l’IA générative, accéder potentiellement aux données sensibles ou aux fonctions privilégiées. Il a indiqué que de telles tentatives ont été détectées par Azure Responsible AI Content Safety (Protections d’invite AKA), mais n’ont pas été bloquées en raison des paramètres de filtrage de contenu ou en raison d’une faible confiance.

Tactiques MITRE : Escalade de privilèges, Évasion de défense

Gravité : moyenne

Exposition des données sensibles détectée dans le déploiement du modèle Azure OpenAI

(IA. Azure_DataLeakInModelResponse.Sensitive)

Description : L’alerte de fuite de données sensibles est conçue pour informer le SOC qu’un modèle GenAI a répondu à une invite d’utilisateurs avec des informations sensibles, potentiellement en raison d’une tentative malveillante de contourner les protections de l’IA générative pour accéder aux données sensibles non autorisées.

Tactiques MITRE : Collection

Gravité : moyenne

Remarque

Pour les alertes en préversion : Les Conditions supplémentaires pour les préversions Azure comprennent des conditions juridiques supplémentaires s’appliquant aux fonctionnalités Azure qui sont en version bêta, en préversion ou qui ne sont pas encore en disponibilité générale.

Étapes suivantes