Alertes pour les charges de travail IA (préversion)
Cet article répertorie les alertes de sécurité que vous pouvez obtenir pour les charges de travail IA de Microsoft Defender pour le cloud et les plans Microsoft Defender que vous avez activés. Les alertes présentées dans votre environnement dépendent des ressources et services que vous protégez et de votre configuration personnalisée.
Remarque
Certaines des alertes récemment ajoutées alimentées par Veille des menaces Microsoft Defender et Microsoft Defender pour point de terminaison peuvent être non documentées.
Découvrez comment répondre à ces alertes.
Découvrez comment exporter des alertes.
Notes
Les alertes provenant de différentes sources peuvent prendre différentes durées d’affichage. Par exemple, l’affichage des alertes qui nécessitent une analyse du trafic réseau peut prendre plus de temps que pour les alertes liées à des processus suspects s’exécutant sur des machines virtuelles.
Alertes de charge de travail IA
Détection de tentatives de vol d’informations d’identification sur un déploiement de modèle Azure OpenAI
(IA. Azure_CredentialTheftAttempt)
Description : l’alerte de vol d’informations d’identification est conçue pour avertir le SOC lorsque les informations d’identification sont détectées dans les réponses de modèle GenAI à une invite utilisateur, indiquant une violation potentielle. Cette alerte est essentielle pour détecter les cas de fuite ou de vol d’informations d’identification, qui sont uniques à l’IA générative et peuvent avoir des conséquences graves si elles réussissent.
Tactiques MITRE : Accès aux informations d’identification, Mouvement latéral, Exfiltration
Gravité : moyenne
Une tentative de jailbreak sur un déploiement de modèle Azure OpenAI a été bloquée par les boucliers d’invite de sécurité de contenu Azure AI
(IA. Azure_Jailbreak.ContentFiltering.BlockedAttempt)
Description : L’alerte Jailbreak, effectuée à l’aide d’une technique d’injection directe d’invite, est conçue pour informer le SOC qu’il y a eu une tentative de manipulation de l’invite système pour contourner les garanties de l’IA générative, accéder potentiellement aux données sensibles ou aux fonctions privilégiées. Il a indiqué que de telles tentatives ont été bloquées par Azure Responsible AI Content Safety (AKA Prompt Shields), garantissant ainsi l’intégrité des ressources IA et de la sécurité des données.
Tactiques MITRE : Escalade de privilèges, Évasion de défense
Gravité : moyenne
Une tentative de jailbreak sur un déploiement de modèle Azure OpenAI a été détectée par les boucliers d’invite de sécurité de contenu Azure AI
(IA. Azure_Jailbreak.ContentFiltering.DetectedAttempt)
Description : L’alerte Jailbreak, effectuée à l’aide d’une technique d’injection directe d’invite, est conçue pour informer le SOC qu’il y a eu une tentative de manipulation de l’invite système pour contourner les garanties de l’IA générative, accéder potentiellement aux données sensibles ou aux fonctions privilégiées. Il a indiqué que de telles tentatives ont été détectées par Azure Responsible AI Content Safety (Protections d’invite AKA), mais n’ont pas été bloquées en raison des paramètres de filtrage de contenu ou en raison d’une faible confiance.
Tactiques MITRE : Escalade de privilèges, Évasion de défense
Gravité : moyenne
Exposition des données sensibles détectée dans le déploiement du modèle Azure OpenAI
(IA. Azure_DataLeakInModelResponse.Sensitive)
Description : L’alerte de fuite de données sensibles est conçue pour informer le SOC qu’un modèle GenAI a répondu à une invite d’utilisateurs avec des informations sensibles, potentiellement en raison d’une tentative malveillante de contourner les protections de l’IA générative pour accéder aux données sensibles non autorisées.
Tactiques MITRE : Collection
Gravité : moyenne
Application IA\modèle\données corrompus ont dirigé une tentative de phishing vers un utilisateur
(IA. Azure_PhishingContentInModelResponse)
Description : Cette alerte indique une altération d’une application IA développée par l’organisation, car elle a partagé activement une URL malveillante connue utilisée pour le hameçonnage avec un utilisateur. L’URL provient de l’application elle-même, du modèle IA ou des données que l’application peut accéder.
Tactiques MITRE : Impact (Défacement)
Gravité : élevée
URL de phishing partagée dans une application IA
(IA. Azure_PhishingContentInAIApplication)
Description : cette alerte indique une altération potentielle d’une application IA ou une tentative d’hameçonnage par l’un des utilisateurs finaux. L’alerte détermine qu’une URL malveillante utilisée pour le hameçonnage a été transmise pendant une conversation via l’application IA, mais l’origine de l’URL (utilisateur ou application) n’est pas claire.
Tactiques MITRE : Impact (Defacement), Collection
Gravité : élevée
Tentative de phishing détectée dans une application IA
(IA. Azure_PhishingContentInUserPrompt)
Description : cette alerte indique une URL utilisée pour l’attaque par hameçonnage a été envoyée par un utilisateur à une application IA. En général, le contenu incite les visiteurs à entrer leurs informations d’identification d’entreprise ou leurs informations financières sur un site d’apparence légitime. L’envoi de ce message à une application IA peut être destiné à la corruption, à l’empoisonnement des sources de données auxquelles il a accès ou à l’accès aux employés ou à d’autres clients via les outils de l’application.
Tactiques MITRE : Collection
Gravité : élevée
Remarque
Pour les alertes en préversion : Les Conditions supplémentaires pour les préversions Azure comprennent des conditions juridiques supplémentaires s’appliquant aux fonctionnalités Azure qui sont en version bêta, en préversion ou qui ne sont pas encore en disponibilité générale.