Share via


Gestione del comportamento di sicurezza dell'intelligenza artificiale

Il piano CSPM (Defender Cloud Security Posture Management) in Microsoft Defender per il cloud offre funzionalità di gestione del comportamento di sicurezza dell'intelligenza artificiale che proteggono le applicazioni di intelligenza artificiale create dall'azienda, multi o ibrido (attualmente Azure e AWS) generano applicazioni di intelligenza artificiale per tutto il ciclo di vita dell'applicazione. Defender per il cloud riduce i rischi per i carichi di lavoro di intelligenza artificiale tra cloud:

  • Individuazione della distinta base per l'intelligenza artificiale generativa, che include componenti dell'applicazione, dati e artefatti di intelligenza artificiale dal codice al cloud.
  • Rafforzare il comportamento di sicurezza delle applicazioni di intelligenza artificiale generativo con raccomandazioni predefinite e esplorando e correggendo i rischi per la sicurezza.
  • Uso dell'analisi del percorso di attacco per identificare e correggere i rischi.

Diagramma del ciclo di vita di sviluppo coperto dalla gestione del comportamento di sicurezza dell'intelligenza artificiale di Defender per il cloud.

Individuazione di app di intelligenza artificiale generative

Defender per il cloud individua i carichi di lavoro di intelligenza artificiale e identifica i dettagli della distinta base di intelligenza artificiale dell'organizzazione. Questa visibilità consente di identificare e risolvere le vulnerabilità e proteggere le applicazioni di intelligenza artificiale generati da potenziali minacce.

Defenders for Cloud individua automaticamente e continuamente i carichi di lavoro di intelligenza artificiale distribuiti nei servizi seguenti:

  • Servizio OpenAI di Azure
  • Azure Machine Learning
  • Amazon Bedrock

Defender per il cloud può anche individuare le vulnerabilità all'interno di dipendenze generative della libreria di intelligenza artificiale, ad esempio TensorFlow, PyTorch e Langchain, analizzando il codice sorgente per errori di configurazione dell'infrastruttura come codice (IaC) e immagini del contenitore per le vulnerabilità. L'aggiornamento o l'applicazione regolare di patch alle librerie possono impedire exploit, proteggere le applicazioni di intelligenza artificiale generative e mantenere l'integrità.

Con queste funzionalità, Defender per il cloud offre visibilità completa dei carichi di lavoro di intelligenza artificiale dal codice al cloud.

Riduzione dei rischi per la generazione di app di intelligenza artificiale

Defender CSPM fornisce informazioni contestuali sul comportamento di sicurezza dell'intelligenza artificiale di un'organizzazione. È possibile ridurre i rischi all'interno dei carichi di lavoro di intelligenza artificiale usando raccomandazioni sulla sicurezza e analisi dei percorsi di attacco.

Esplorazione dei rischi tramite le raccomandazioni

Defender per il cloud valuta i carichi di lavoro di intelligenza artificiale e i problemi consigliati relativi all'identità, alla sicurezza dei dati e all'esposizione a Internet per identificare e classificare in ordine di priorità i problemi di sicurezza critici nei carichi di lavoro di intelligenza artificiale.

Rilevamento di errori di configurazione IaC

La sicurezza devOps rileva errori di configurazione IaC, che possono esporre applicazioni di intelligenza artificiale generati a vulnerabilità di sicurezza, ad esempio controlli di accesso sovra-esposti o servizi esposti pubblicamente accidentalmente. Queste configurazioni errate potrebbero causare violazioni dei dati, accessi non autorizzati e problemi di conformità, soprattutto quando si gestiscono normative rigorose sulla privacy dei dati.

Defender per il cloud valuta la configurazione delle app di intelligenza artificiale generative e fornisce raccomandazioni sulla sicurezza per migliorare il comportamento di sicurezza dell'intelligenza artificiale.

Le configurazioni non corrette rilevate devono essere risolte all'inizio del ciclo di sviluppo per evitare problemi più complessi in un secondo momento.

I controlli di sicurezza dell'intelligenza artificiale IaC correnti includono:

  • Usare endpoint privati del servizio di intelligenza artificiale di Azure
  • Limitare gli endpoint del servizio di intelligenza artificiale di Azure
  • Usare l'identità gestita per gli account del servizio intelligenza artificiale di Azure
  • Usare l'autenticazione basata su identità per gli account del servizio di intelligenza artificiale di Azure

Esplorazione dei rischi con l'analisi del percorso di attacco

L'analisi dei percorsi di attacco rileva e attenua i rischi per i carichi di lavoro di intelligenza artificiale, in particolare durante la messa a terra (collegamento di modelli di intelligenza artificiale a dati specifici) e l'ottimizzazione (modificando un modello con training preliminare in un set di dati specifico per migliorare le prestazioni in un'attività correlata), in cui i dati potrebbero essere esposti.

Monitorando continuamente i carichi di lavoro di intelligenza artificiale, l'analisi del percorso di attacco può identificare punti deboli e potenziali vulnerabilità e seguire le raccomandazioni. Si estende anche ai casi in cui i dati e le risorse di calcolo vengono distribuiti in Azure, AWS e GCP.