Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Questo articolo illustra come stabilire un processo di sicurezza per i carichi di lavoro di intelligenza artificiale in Azure. Un ambiente di intelligenza artificiale sicuro supporta gli obiettivi aziendali e crea la fiducia degli stakeholder nelle soluzioni di intelligenza artificiale.
Governare l'intelligenza artificiale, gestire l'intelligenza artificiale e mettere in sicurezza l'intelligenza artificiale sono processi continui che è necessario iterare regolarmente. Rivedere ogni strategia di intelligenza artificiale, piano di intelligenza artificiale e preparazione per l'intelligenza artificiale secondo le necessità.
Individuare i rischi per la sicurezza dell'intelligenza artificiale
I carichi di lavoro di intelligenza artificiale creano nuove superfici di attacco che le misure di sicurezza tradizionali non possono affrontare. È necessario valutare sistematicamente le vulnerabilità specifiche dell'intelligenza artificiale per creare difese efficaci. Ecco come fare:
Identificare i rischi del sistema di intelligenza artificiale nell'ambiente in uso. L'adozione dell'intelligenza artificiale introduce classi di rischio che la modellazione tradizionale delle minacce potrebbe non affrontare in modo esplicito. Anche se il framework aziendale esistente potrebbe essere già in grado di modellare questi rischi, la governance dell'intelligenza artificiale richiede la convalida intenzionale che lo fa effettivamente. Iniziare con il framework di modellazione delle minacce stabilito, ad esempio STRIDE. Fare quindi riferimento a knowledge base e inventari specifici dell'IA, ad esempio MITRE ATLAS e OWASP Generative AI risk (Rischio di intelligenza artificiale generativa) per verificare che le tecniche di attacco specifiche dell'IA, gli scenari di uso improprio e i rischi sistemici siano adeguatamente risolti. Usare queste origini per integrare, non sostituire, il framework esistente e per informare l'identificazione coerente dei rischi di intelligenza artificiale nell'intera organizzazione.
Valutare i rischi per i dati di intelligenza artificiale in tutti i flussi di lavoro. I dati sensibili nei flussi di lavoro di intelligenza artificiale aumentano il rischio di minacce interne e perdite di dati che possono compromettere le operazioni aziendali. La valutazione dei rischi dei dati consente di classificare in ordine di priorità gli investimenti di sicurezza in base ai livelli di esposizione effettivi. Gestione dei rischi Insider Microsoft Purview può integrarsi con altre suite di sicurezza e soluzioni per valutare i rischi per i dati a livello aziendale e classificarli in ordine di priorità in base ai livelli di riservatezza dei dati. Può anche essere utile con l'esfiltrazione dei dati basata su prompt e l'identificazione di modelli di comportamento di intelligenza artificiale rischiosi.
Testare i modelli di intelligenza artificiale per le vulnerabilità di sicurezza. I modelli di intelligenza artificiale contengono vulnerabilità univoche, ad esempio la perdita di dati, l'inserimento di richieste e l'inversione del modello che gli utenti malintenzionati possono sfruttare. I test reali rivelano rischi che le revisioni statiche non possono rilevare. Testare i modelli per le vulnerabilità utilizzando tecniche di prevenzione della perdita dei dati e simulazioni avversarie, e formare un red team per testare sia i modelli di intelligenza artificiale generativi che quelli non generativi, simulando attacchi reali.
Eseguire valutazioni periodiche dei rischi. Nuove minacce emergono man mano che i modelli di intelligenza artificiale, i modelli di utilizzo e gli attori delle minacce si evolvono nel tempo. Le valutazioni regolari assicurano che il comportamento di sicurezza si adatti ai cambiamenti dei paesaggi di rischio. Eseguire valutazioni ricorrenti per identificare le vulnerabilità nei modelli, nelle pipeline di dati e negli ambienti di distribuzione e usare i risultati della valutazione per guidare le priorità di mitigazione dei rischi in tutti gli ambienti.
Proteggere le risorse e i dati di intelligenza artificiale
I sistemi di intelligenza artificiale contengono risorse e dati preziosi che richiedono una protezione avanzata da accessi e attacchi non autorizzati. È necessario implementare controlli di sicurezza specifici per proteggere questi asset critici.
Proteggere le risorse di intelligenza artificiale
Misure di sicurezza complete proteggono gli investimenti di intelligenza artificiale e mantengono la fiducia degli stakeholder nelle soluzioni di intelligenza artificiale. Applicare controlli mirati per proteggere tutti i componenti dell'infrastruttura di intelligenza artificiale. Ecco come fare:
Creare un inventario completo degli asset di intelligenza artificiale. Asset di intelligenza artificiale sconosciuti o asset di intelligenza artificiale non monitorati per la conformità ai criteri di intelligenza artificiale dell'organizzazione, creano rischi per la sicurezza che gli attori malintenzionati possono sfruttare per ottenere l'accesso non autorizzato. Un inventario completo consente un monitoraggio efficace e una risposta rapida agli eventi imprevisti per tutti i componenti di intelligenza artificiale. Usare Azure Resource Graph per individuare le risorse di intelligenza artificiale tra sottoscrizioni. Usare Microsoft Defender per il cloud per identificare i carichi di lavoro generativi di intelligenza artificiale. I risultati diventano l'inventario di intelligenza artificiale e devono essere mantenuti tramite l'analisi automatizzata e la convalida regolare.
Proteggere tutti i canali di comunicazione di intelligenza artificiale. I percorsi di comunicazione esposti tra i componenti di intelligenza artificiale consentono l'intercettazione dei dati e la compromissione del sistema. I canali protetti correttamente impediscono l'accesso non autorizzato e proteggono le informazioni riservate in transito. Implementare identità gestite per l'autenticazione sicura delle identità del dispositivo e del carico di lavoro (non umano) senza credenziali archiviate. Usare le reti virtuali per isolare le comunicazioni di intelligenza artificiale. Distribuire Gestione API di Azure per proteggere gli endpoint server MCP (Model Context Protocol).
Applicare controlli di sicurezza specifici della piattaforma. Diversi modelli di distribuzione di intelligenza artificiale affrontano minacce di sicurezza distinte in base all'architettura e ai punti di esposizione. I controlli personalizzati della piattaforma rispondono alle vulnerabilità specifiche presenti in ogni tipo di distribuzione. Seguire le linee guida per la sicurezza dedicate in base al modello di distribuzione:
Proteggere i dati di intelligenza artificiale
I carichi di lavoro di intelligenza artificiale si basano su dati e artefatti che richiedono una protezione affidabile per impedire accessi non autorizzati, perdite di dati e violazioni della conformità. Implementare misure di sicurezza dei dati complete per proteggere i dati e gli artefatti di intelligenza artificiale. Ecco come fare:
Definire e gestire i limiti dei dati. Definire confini chiari dei dati garantisce che i carichi di lavoro di intelligenza artificiale accedano solo ai dati appropriati per il loro pubblico previsto e il caso d'uso. Usare Microsoft Purview per classificare la riservatezza dei dati, usando tipi di informazioni riservate, classificatori sottoponibili a training e classificazione dei dati per definire i criteri di accesso. Implementare Azure controllo degli accessi basato sui ruoli (RBAC) per limitare l'accesso ai dati in base al workload e al gruppo di utenti. Usare collegamento privato di Azure per abilitare l'accesso ai servizi PaaS Azure tramite un endpoint privato nella rete virtuale.
Implementare una prevenzione completa della perdita dei dati. L'esposizione non autorizzata dei dati tramite risposte di intelligenza artificiale può compromettere le informazioni riservate e violare i requisiti normativi. I controlli di prevenzione della perdita dei dati impediscono ai modelli di intelligenza artificiale di rivelare accidentalmente i dati protetti negli output. Usare Prevenzione della perdita dei dati Microsoft Purview per analizzare e bloccare i dati sensibili nei flussi di lavoro di intelligenza artificiale. Configurare il filtro del contenuto per evitare la perdita di informazioni riservate e implementare filtri personalizzati per rilevare e redigire modelli di dati sensibili specifici dell'organizzazione. Per Microsoft Copilot Studio, Configurare i criteri di prevenzione della perdita dei dati per gli agenti.
Proteggere gli artefatti di intelligenza artificiale da compromissioni. I modelli e i set di dati di intelligenza artificiale non protetti diventano obiettivi per attacchi di furto, avvelenamento o reverse engineering. Gli artefatti protetti mantengono il valore della proprietà intellettuale e impediscono la manipolazione dannosa dei sistemi di intelligenza artificiale. Archiviare modelli e set di dati in Archiviazione BLOB di Azure con endpoint privati, applicare la crittografia dei dati inattivi e in transito e implementare criteri di accesso rigorosi con il monitoraggio per rilevare tentativi di accesso non autorizzati.
Rilevare le minacce per la sicurezza dell'intelligenza artificiale
I sistemi di intelligenza artificiale affrontano minacce in continua evoluzione che richiedono il monitoraggio continuo per prevenire violazioni della sicurezza e interruzioni del servizio. Il rilevamento rapido delle minacce protegge gli investimenti di intelligenza artificiale e mantiene la continuità aziendale. Implementare funzionalità di monitoraggio e risposta automatizzate per risolvere in modo efficace gli eventi imprevisti di sicurezza specifici dell'intelligenza artificiale. Ecco come fare:
Distribuire il rilevamento automatizzato dei rischi di intelligenza artificiale nell'ambiente in uso. I carichi di lavoro di intelligenza artificiale introducono minacce dinamiche che il monitoraggio manuale non riesce a rilevare abbastanza rapidamente per evitare danni. I sistemi automatizzati offrono visibilità in tempo reale su rischi emergenti e consentono una risposta rapida agli incidenti di sicurezza. Usare AI security posture management in Microsoft Defender per il cloud per automatizzare il rilevamento e la correzione dei rischi generativi di intelligenza artificiale nell'ambiente Azure.
Stabilire procedure di risposta agli eventi imprevisti incentrate sull'intelligenza artificiale. Gli eventi imprevisti di sicurezza non rilevati possono causare perdita di dati, compromissione del modello o interruzione del servizio che danneggia le operazioni aziendali. Le procedure di risposta agli eventi imprevisti specializzati riguardano le caratteristiche univoche degli eventi di sicurezza dell'intelligenza artificiale. Creare e testare i piani di risposta agli eventi imprevisti che affrontano le minacce specifiche dell'IA e monitorano continuamente gli indicatori di compromissione nei sistemi di intelligenza artificiale. Stabilire procedure di escalation chiare per diversi tipi di incidenti di sicurezza dell'intelligenza artificiale.
Implementare strategie di monitoraggio specifiche della piattaforma. I carichi di lavoro di intelligenza artificiale distribuiti in piattaforme diverse affrontano problemi di sicurezza distinti che richiedono approcci di monitoraggio personalizzati. Il monitoraggio specifico della piattaforma garantisce una copertura completa di tutti i potenziali vettori di attacco. Applicare indicazioni sul monitoraggio in base all'architettura di distribuzione come indicato di seguito:
- monitoraggio AI su piattaforme Azure (PaaS)
- Monitoraggio dell'AI sull'infrastruttura di Azure (IaaS)
risorse Azure
| Categoria | Strumento | Descrizione |
|---|---|---|
| Rilevamento risorse | Azure Resource Graph Explorer | Individua e inventaria le risorse di intelligenza artificiale tra sottoscrizioni Azure |
| Monitoraggio della sicurezza | Microsoft Defender per il cloud | Identifica i carichi di lavoro generativi di intelligenza artificiale e i rischi per la sicurezza |
| Gestione delle identità | Identità gestite | Protegge l'autenticazione del servizio di intelligenza artificiale senza archiviare le credenziali |
| Sicurezza di rete | Reti virtuali | Isola le comunicazioni di intelligenza artificiale e limita l'accesso alla rete |
| Sicurezza API | Gestione API di Azure | Protegge gli endpoint del server del Protocollo di Contesto del Modello |
| Protezione dei dati | Archiviazione BLOB di Azure | Fornisce l'archiviazione crittografata per gli artefatti di intelligenza artificiale con controlli di accesso |
| Governance dei dati | Microsoft Purview | Cataloga e classifica i dati di intelligenza artificiale con etichette di riservatezza |
Passaggi successivi
Come indicato in precedenza, i processi di governance dell'intelligenza artificiale, della gestione dell'intelligenza artificiale e dell'intelligenza artificiale sicura sono processi continui che è necessario scorrere regolarmente. Rivedere ogni strategia di intelligenza artificiale, piano di intelligenza artificiale e preparazione per l'intelligenza artificiale secondo le necessità. Usare gli elenchi di controllo per l'adozione dell'intelligenza artificiale per determinare il passaggio successivo.