Condividi tramite


Creare un comportamento di sicurezza sicuro per l'intelligenza artificiale

Il comportamento di sicurezza dell'intelligenza artificiale è una parte importante della strategia di sicurezza complessiva. L'IA pone la priorità su elementi specifici di una strategia di cybersecurity, ad esempio la protezione dei dati. Questo articolo illustra come sviluppare la strategia e le priorità per la protezione dell'IA. Gli articoli successivi di questa raccolta consentono di identificare gli elementi specifici della cybersecurity da classificare in ordine di priorità quando si adottano compagni di intelligenza artificiale, strumenti e nuove app.

Il comportamento di sicurezza è definito come capacità generale di difesa della sicurezza informatica dell'organizzazione, insieme al livello di preparazione e stato operativo per gestire le minacce alla sicurezza informatica in corso. Questa postura deve essere quantificabile e misurabile, analogamente a qualsiasi altra metrica principale relativa allo stato operativo o al benessere dell'organizzazione.

Diagramma che mostra il comportamento di sicurezza dell'organizzazione.

La costruzione di una posizione di sicurezza forte per l'IA significa lavorare all'interno della tua organizzazione, soprattutto con i leader della tua organizzazione, per sviluppare una strategia e una serie di priorità e obiettivi. Si identifica quindi il lavoro tecnico necessario per raggiungere gli obiettivi e guidare i vari team a raggiungerli. Gli articoli di questa libreria forniscono una metodologia con linee guida specifiche per l'intelligenza artificiale:

  • Preparare l'ambiente con le protezioni di sicurezza di base. È probabile che siano già presenti molte di queste protezioni.
  • Individuare le app di intelligenza artificiale usate nell'organizzazione, inclusi i tipi di dati usati dalle app.
  • Proteggere l'uso degli strumenti di intelligenza artificiale nell'organizzazione. Ciò implica funzionalità di protezione dei dati specifiche dell'intelligenza artificiale e garantire che l'organizzazione abbia implementato una protezione dalle minacce avanzata.
  • Governa l'Intelligenza Artificiale per la conformità normativa.

Diagramma che illustra il processo di implementazione della sicurezza per l'intelligenza artificiale.

Usare questa libreria insieme ai framework seguenti in Microsoft Learn:

Diagramma che mostra il framework di sicurezza per l'intelligenza artificiale.

Nell'immagine:

  • Usare questa libreria (security for AI library) per informazioni su come implementare funzionalità per proteggere le app e i dati di intelligenza artificiale nell'ambiente in uso. Queste protezioni consentono di creare le basi di Zero Trust.
  • Usare il framework di adozione Zero Trust per continuare a progredire verso una sicurezza end-to-end. Ogni scenario aziendale Zero Trust aumenta anche la sicurezza per le app e i dati di intelligenza artificiale.
  • Usare Cloud Adoption Framework per intelligenza artificiale per sviluppare la roadmap end-to-end per l'adozione dell'IA, tra cui intelligenza artificiale generativa e non generativa. Questa libreria include strategie per la scelta di tecnologie di IA, processi per la protezione e la governance dell'IA e delle risorse per la progettazione e l'implementazione dell'IA.

Comprendere le motivazioni dei responsabili aziendali

Una postura di sicurezza avanzata dell'intelligenza artificiale consente all'innovazione, consentendo alle organizzazioni di creare e distribuire l'intelligenza artificiale con fiducia e agilità. L'obiettivo è consentire all'organizzazione di creare, distribuire e ridimensionare in modo sicuro i sistemi di intelligenza artificiale, salvaguardando al contempo i rischi che potrebbero compromettere la fiducia, la conformità o la stabilità operativa. Incorporando la sicurezza alla base delle iniziative di IA, le organizzazioni possono sbloccare il potenziale completo dell'IA in modo responsabile, assicurandosi che rimanga un asset strategico anziché una fonte di danni imprevisti.

Iniziare a sviluppare la strategia e le priorità ottenendo l'allineamento con i responsabili aziendali. Cosa motiva i leader e perché si preoccupano del comportamento di sicurezza per l'IA? La tabella seguente fornisce prospettive di esempio, ma è importante incontrarsi con ognuno di questi leader e team e venire a una comprensione condivisa delle motivazioni dell'altro.

Ruolo Perché la creazione di una postura di sicurezza avanzata per l'IA è importante
Amministratore Delegato (CEO) I sistemi di IA modellano sempre più decisioni strategiche e interazioni con i clienti. Una violazione o manipolazione dell'IA può portare a decisioni insufficienti, controllo normativo, danni alla reputazione e perdita di fiducia. La sicurezza avanzata dell'intelligenza artificiale è fondamentale per l'organizzazione per proteggere la reputazione dell'azienda, garantire la conformità legale e garantire una trasformazione di intelligenza artificiale riuscita.
Direttore Marketing (CMO) Gli strumenti di intelligenza artificiale guidano informazioni dettagliate, targeting e personalizzazione dei clienti. Se compromessi, questi strumenti possono causare perdite di dati, output distorti o danni al marchio a causa di contenuti o targeting inappropriati. Garantire la sicurezza dell'intelligenza artificiale assicura fiducia nel coinvolgimento dei clienti, preserva l'integrità del marchio, previene disastri di pubbliche relazioni e dimostra l'impegno dell'azienda a proteggere la privacy dei clienti.
Chief Information Officer (CIO) Un ambiente di intelligenza artificiale sicuro è essenziale per garantire l'affidabilità del sistema, impedire l'accesso non autorizzato e mantenere la resilienza operativa. Ciò consente ai CIO di integrare in modo sicuro le tecnologie di IA che migliorano l'azienda senza esporre l'azienda a rischi imprevisti.
Chief Information Security Officer (CISO) L'IA introduce nuove superfici di attacco e nuovi rischi, amplificando al contempo i rischi esistenti. Le nuove superfici di attacco includono prompt, risposte, modelli, dati RAG, protocollo MCP (Model Context Protocol), dati di addestramento e avvelenamento dei dati, attacchi jailbreak, sicurezza dei dati e altro ancora. Il CISO deve condurre sforzi nella modellazione delle minacce e nella protezione delle pipeline di intelligenza artificiale per mantenere il comportamento di sicurezza aziendale. La sicurezza affidabile dell'intelligenza artificiale è un'estensione della strategia globale di difesa informatica per proteggere gli asset dell'organizzazione, rispettare i framework di sicurezza e mantenere la fiducia dei clienti e degli stakeholder nell'era dei sistemi intelligenti.
Chief Technology Officer (CTO) Un comportamento di sicurezza di intelligenza artificiale forte è fondamentale per gli oggetti CTO per proteggere le risorse tecnologiche dell'organizzazione e garantire che i sistemi di intelligenza artificiale eseguano in modo affidabile come previsto. Incorporando la sicurezza nel ciclo di vita dello sviluppo di intelligenza artificiale, il CTO consente di evitare violazioni di algoritmi sensibili e mantenere alta qualità e fiducia nei prodotti basati sull'intelligenza artificiale. Ciò consente all'innovazione di procedere senza rischi eccessivi.
Direttore Operativo (COO) L'intelligenza artificiale automatizza i processi critici nella supply chain, nella logistica e nelle operazioni. Gli attacchi ai sistemi di intelligenza artificiale possono interrompere i servizi, aumentare il rischio operativo e causare ritardi costosi. Una posizione di sicurezza avanzata dell'intelligenza artificiale garantisce continuità aziendale ed efficienza.
Direttore Finanziario (CFO) I CFO ritengono che una solida strategia di sicurezza dell'IA sia essenziale per proteggere l'organizzazione. Aiuta a evitare perdite finanziarie impreviste e garantisce la conformità alle leggi e agli obblighi di segnalazione.

Affrontare il panorama delle minacce in continua evoluzione per l'IA

GenAI introduce nuove superfici di attacco, modificando in modo efficace il panorama dei rischi. Oltre a gestire i vettori di minacce tradizionali, i leader della sicurezza e dei rischi devono anche affrontare rischi amplificati come la perdita di dati e l'oversharing dei dati e nuovi rischi, ad esempio inserimenti di richieste, informazioni errate, vulnerabilità del modello e informazioni errate. Affrontare il panorama delle minacce in continua evoluzione è fondamentale per abilitare l'IA affidabile.

Diagramma che mostra l'introduzione di nuovi rischi per GenAI.

Nell'illustrazione:

  • Le superfici di attacco GenAI introducono rischi nuovi e amplificati.
  • I vettori di minaccia che rimangono invariati includono le applicazioni, le identità, gli endpoint, la rete, i dati e le risorse cloud.
  • GenAI introduce nuove superfici di attacco, tra cui prompt, risposte, orchestrazione dell'intelligenza artificiale, dati di training, dati RAG (dati di Retrieval-Augmented Generation, ovvero dati risultanti da interazioni dei dati o altri dati esterni con dei modelli linguistici), modelli di intelligenza artificiale e plugin di intelligenza artificiale.
  • GenAI introduce nuovi rischi amplificati, tra cui la perdita di dati, il jailbreak (compromissione dei dispositivi altrimenti protetti), l'inserimento indiretto delle richieste e la vulnerabilità del modello.

Attualmente, gli eventi imprevisti di sicurezza più comuni nell'intelligenza artificiale includono:

  • Perdita di dati e condivisione eccessiva: gli utenti potrebbero divulgare dati sensibili alle app di intelligenza artificiale ombra (app non approvate dal team IT). Gli utenti possono anche accedere ai dati sensibili usando le app di intelligenza artificiale.
  • Vulnerabilità e minacce emergenti: gli attori malintenzionati potrebbero sfruttare le vulnerabilità nelle app di intelligenza artificiale per accedere a risorse preziose.
  • Non conformità: le normative, incluse le normative emergenti per l'IA, possono aumentare l'incertezza. L'adozione non conforme dell'IA può aumentare la responsabilità.

I due scenari di esempio seguenti evidenziano la necessità di creare un comportamento di sicurezza sicuro per l'intelligenza artificiale.

Come avviene l'oversharing e la perdita di dati?

In questo esempio, un dipendente contoso, Adele, trova e usa dati sensibili con diverse app di intelligenza artificiale.

Passo Descrizione Rischi non smitigati
1 Adele sente un membro del team fare riferimento a Project Obsidian. Usa Microsoft 365 Copilot per trovare altre informazioni su di esso. Copilot le fornisce un riepilogo e un collegamento ai documenti. Copilot può elaborare dati sensibili senza limitazioni. I dati sensibili sono sovraesposti ai dipendenti, inclusi quelli che non devono avere accesso.
2 Adele continua a usare Copilot per trovare e raccogliere altre informazioni su Project Obsidian. Non sono presenti controlli per rilevare anomalie nelle app di intelligenza artificiale.
3 Per curiosità, Adele vuole vedere cosa Avrebbe riepilogato ChatGPT, quindi incolla il contenuto del file in ChatGTP. Non esiste alcuna prevenzione della perdita dei dati (DLP) per evitare la perdita di dati nelle app di intelligenza artificiale consumer.
4 I dettagli del progetto sono stati rivelati prematuramente, causando violazioni dei dati. Contoso ha quindi vietato tutte le app di intelligenza artificiale nell'area di lavoro. L'esclusione dell'IA consumer in modo definitivo può comportare un aumento dell'utilizzo oscuro.

Contoso potrebbe aver mitigato questi rischi eseguendo il lavoro di preparazione, individuazione e protezione dell'utilizzo delle app di intelligenza artificiale.

Fase Descrizione
Preparazione Usare Entra e SharePoint Advanced Management per l'accesso corretto dei dipendenti alle risorse.
Usare Purview Information Protection per classificare ed etichettare i dati sensibili.
Scoprire Usare Purview DSPM per l'intelligenza artificiale per individuare i rischi per i dati.
Usare un rapporto di valutazione della condivisione eccessiva per valutare i rischi di condivisione eccessiva.
Proteggere Applicare Purview DLP per Microsoft 365 Copilot per impedire a Copilot di riepilogare i dati sensibili.
Usare Purview Insider Risk Management per rilevare e analizzare le attività di anomalie. Usare la protezione adattiva per limitare dinamicamente l'accesso per gli utenti ad alto rischio.
Usare Defender per le app cloud per bloccare le app ad alto rischio.
Usare Entra Conditional Access per richiedere ad Adele di accettare i termini di utilizzo prima di concedere l'accesso a ChatGPT.
Usare DLP endpoint Purview per bloccare l'incollamento dei dati sensibili alle app di IA consumer.

In che modo l'IA può introdurre rischi per la conformità?

In questo prossimo esempio, Jane è incaricata di guidare la governance dell'intelligenza artificiale per Contoso.

Passo Descrizione Rischi non smitigati
1 Jane fatica a interpretare i requisiti normativi in controlli attuabili per l'implementazione da parte dei team IT. Mancanza di esperti che sono ben esperti sia nei requisiti normativi che nella tecnologia.
2 Jane inizia a preparare le valutazioni dei rischi, ma non è a conoscenza dei sistemi di intelligenza artificiale creati e usati in Contoso. Inoltre, non ha visibilità sull'utilizzo e sui potenziali rischi di conformità. Nessuna visibilità sui sistemi di intelligenza artificiale distribuiti nell'ambiente. Nessuna governance dell'utilizzo dell'IA.
3 Dopo diverse interviste interne, Jane si rende conto che gli sviluppatori stanno sviluppando contemporaneamente circa 14 app di intelligenza artificiale, con vari standard di sicurezza, protezione e controlli della privacy implementati. Nessuna visibilità sui controlli incorporati nei sistemi di intelligenza artificiale da parte degli sviluppatori.
4 Alcune app di intelligenza artificiale usano dati personali senza protezioni standard per valutare i rischi. Nessuna valutazione dei rischi.
5 I clienti si lamentano del fatto che l'IA di Contoso crei contenuti dannosi e privi di fondamento. Mancanza di controlli per gli output di intelligenza artificiale.

Le normative di IA comportano incertezza e rischi di responsabilità travolgenti ai leader responsabili della governance dell'IA. Senza modifiche, Contoso rischia di violare i requisiti normativi dell'IA e potenzialmente affrontare sanzioni e danni alla reputazione.

Contoso potrebbe aver mitigato questi rischi eseguendo il lavoro di preparazione, individuazione e protezione dell'utilizzo delle app di intelligenza artificiale.

Fase Descrizione
Preparazione Usare Purview Compliance Manager per ottenere indicazioni sull'implementazione di controlli che consentono di soddisfare i requisiti di conformità.
Scoprire Usare Defender for Cloud per individuare le risorse di intelligenza artificiale distribuite negli ambienti cloud. Usare Defender per le app cloud per individuare le app SaaS AI in uso.
Governance Gestire l'utilizzo dell'intelligenza artificiale con Microsoft Purview Audit, Gestione del ciclo di vita dei dati, Conformità delle comunicazioni e eDiscovery.
Usare i report di intelligenza artificiale in Azure AI Foundry per gli sviluppatori per documentare i dettagli del progetto di intelligenza artificiale.
Usare le Valutazioni della Privacy Priva per valutare proattivamente i rischi per ogni progetto di intelligenza artificiale.
Usa Azure AI Content Safety per mitigare i rischi di contenuti dannosi o non basati su solide fondamenta.

Con l'uso proattivo delle funzionalità di governance, le organizzazioni possono valutare e affrontare i rischi durante l'adozione dell'intelligenza artificiale.

Cinque passaggi per implementare una sicurezza efficace per l'IA

Man mano che aumenta la consapevolezza dei rischi associati all'implementazione rapida di GenAI, molte organizzazioni rispondono in modo proattivo dedicando risorse sostanziali per migliorare le misure di sicurezza. I leader della sicurezza e dei rischi possono eseguire diversi passaggi interattivi per creare un percorso verso l'innovazione sicura e sicura dell'IA.

Queste procedure consigliate si concentrano sulla promozione di un ambiente collaborativo e sull'implementazione di misure di sicurezza efficaci che supporteranno i progressi della GenAI, salvaguardando al contempo gli interessi dell'organizzazione.

Passaggio 1: Creare un team di sicurezza per l'intelligenza artificiale

La maggior parte delle aziende riconosce la necessità di formare team dedicati e interfunzionali per gestire le sfide di sicurezza uniche poste dall'IA. I team di sicurezza dedicati assicurano che i sistemi di IA siano testati rigorosamente, che le vulnerabilità vengano identificate e attenuate rapidamente e che i protocolli di sicurezza vengano aggiornati continuamente per mantenere il passo con le minacce in continua evoluzione.

L'8% dei partecipanti al sondaggio ha attualmente (45%) o prevede di avere (35%) un team dedicato per affrontare la sicurezza per l'IA. Oltre 6 in 10 hanno detto che i loro team reporteranno a un decision maker per la sicurezza, assicurando non solo supervisione vigile, ma anche visione strategica e leadership per affrontare i rischi correlati all'IA.

In particolare, le dimensioni mediane del team, o le dimensioni del team desiderate, di questi team di sicurezza dedicati erano 24 dipendenti, sottolineando le risorse sostanziali che le aziende stanno impegnando per salvaguardare le loro iniziative di IA. Quando le dimensioni dell'azienda sono state considerate, le dimensioni dei team variavano.

Ecco alcune procedure consigliate che le organizzazioni possono usare per creare correttamente un team di sicurezza interfunzionale efficace per l'intelligenza artificiale.

Creare un comitato di IA per promuovere la collaborazione tra i reparti

La sicurezza per l'IA è uno sforzo collettivo che va oltre il reparto IT. Incoraggiare la collaborazione tra team come sicurezza, IT, legale, conformità e gestione dei rischi per creare strategie di sicurezza complete. Avere prospettive e competenze diverse migliorerà l'efficacia dei protocolli di sicurezza.

Assumere set di competenze diversi

La formazione di un team di sicurezza di successo per l'IA richiede un equilibrio di competenze. Cercare i membri del team con competenze in ambito di data science, cybersecurity, ingegneria del software e Machine Learning. Questa diversità garantisce che vengano trattati vari aspetti della sicurezza, dallo sviluppo tecnico alla prevenzione delle minacce.

Stabilire ruoli e responsabilità chiari

Per una produttività efficace, definire chiaramente il ruolo di ogni membro del team. Assicurarsi che tutti comprendano le proprie responsabilità specifiche, che promuovono la responsabilità ed evitano di sovrapporsi agli sforzi.

Investire nella formazione e nello sviluppo continui

L'evoluzione rapida delle tecnologie di IA impone l'istruzione in corso per i team di sicurezza. Fornire l'accesso a programmi di formazione e workshop incentrati su procedure, minacce emergenti e considerazioni etiche correlate alla sicurezza per l'IA. Questo investimento non solo consente ai membri del team, ma anche di garantire che l'organizzazione rimanga in anticipo rispetto alle potenziali vulnerabilità.

Passaggio 2: Ottimizzare le risorse per proteggere GenAI

L'introduzione delle applicazioni di intelligenza artificiale all'interno delle organizzazioni non è solo la rivoluzione delle operazioni, ma anche la necessità di modifiche significative nell'allocazione delle risorse e del budget, in particolare nella sicurezza IT.

La maggior parte dei leader della sicurezza e dei rischi (78%) ritiene che il budget per la sicurezza IT aumenterà per soddisfare le sfide e le opportunità uniche causate dall'IA. Questo adeguamento è fondamentale per diversi motivi. I sistemi di intelligenza artificiale richiedono un'infrastruttura di sicurezza affidabile per operare in modo sicuro. Ciò potrebbe comportare l'aggiornamento dei sistemi di sicurezza esistenti, l'implementazione di controlli di accesso più rigorosi e il miglioramento della sicurezza e della governance dei dati. Potrebbero essere necessarie anche altre risorse per soddisfare i nuovi requisiti normativi di IA emergenti.

In precedenza in questo articolo, Microsoft consiglia di svolgere il lavoro per comprendere le motivazioni dei responsabili aziendali e delle diverse business unit all'interno dell'organizzazione. Identificare i principali problemi e gli obiettivi aziendali condivisi è un passo importante per negoziare le risorse per raggiungere gli obiettivi.

L'allocazione di fondi per le valutazioni di conformità, le consultazioni legali e i controlli diventano essenziali per allineare la strategia di IA di un'organizzazione a un framework di settore e consentire un utilizzo e sistemi di IA più sicuri, sicuri e conformi. Classificare in ordine di priorità i fondi per lo sviluppo continuativo di formazione e competenze dei dipendenti, che possono includere formazione specializzata sugli strumenti di sicurezza per l'IA, strategie di gestione dei rischi e considerazioni etiche sull'uso dell'IA è importante considerare anche quando si allocano budget e risorse.

Passaggio 3: Adottare un approccio Zero Trust

Quando si prepara per l'adozione dell'IA, una strategia Zero Trust fornisce ai leader della sicurezza e dei rischi un set di principi che aiutano a risolvere alcune delle principali preoccupazioni, tra cui l'oversharing o l'sovraesposizione dei dati e l'shadow IT. Un approccio Zero Trust passa da un focus incentrato sulla rete a un focus incentrato su risorse e dati, e considera ogni richiesta di accesso come una potenziale minaccia, indipendentemente dall'origine.

Zero Trust convalida costantemente le identità di ogni utente e dispositivo, assicurando che solo quelli con autorizzazioni chiare possano raggiungere informazioni riservate. Modificando in modo dinamico le misure di sicurezza in base alle valutazioni in tempo reale, Zero Trust riduce al minimo il rischio di perdita di dati e protegge un'organizzazione da minacce interne ed esterne. La verifica continua, l'accesso con privilegi minimi e la gestione dinamica dei rischi sono gli elementi fondamentali di questo approccio, fornendo un framework di sicurezza affidabile e adattabile che supporta il successo della sicurezza end-to-end di un'organizzazione.

Grazie all'adozione di Zero Trust, le organizzazioni possono proteggere le distribuzioni di intelligenza artificiale e sapere che la sicurezza viene convalidata e protetta continuamente. Zero Trust consente alle organizzazioni di adottare l'IA in tutta sicurezza, assicurandosi che le potenti funzionalità dell'IA vengano sfruttate in modo sicuro ed efficace.

Tutte le linee guida sulla sicurezza per l'intelligenza artificiale fornite da Microsoft sono ancorate ai principi Zero Trust. Seguendo le indicazioni sulla sicurezza consigliate per GenAI, si sta creando una solida base Zero Trust.

Passaggio 4: investire in responsabilità condivisa con i partner che si considerano attendibili

Una risorsa spesso usata per informare la strategia e le priorità è il modello di responsabilità condivisa. La responsabilità della protezione dell'uso dell'intelligenza artificiale nell'organizzazione è basata sul tipo di app usate. I partner che investi in condividono la responsabilità con te.

Un modello di responsabilità condivisa consente ai team di sicurezza di guidare l'organizzazione a scegliere:

  • App GenAI che riducono le responsabilità delle organizzazioni.
  • Partner che hanno guadagnato la loro fiducia.

Diagramma che mostra il modello di responsabilità condivise di intelligenza artificiale.

Questo diagramma riepiloga l'equilibrio delle responsabilità sia per l'utente che per Microsoft. Molte organizzazioni usano il modello di responsabilità condivisa per classificare in ordine di priorità l'uso di app SaaS in collaborazione con provider attendibili e ridurre il numero di app personalizzate.

Per altre informazioni, vedere Modello di responsabilità condivisa di intelligenza artificiale - Microsoft Azure.

Oltre a investire con i partner che hanno guadagnato fiducia, molti professionisti della sicurezza consigliano di consolidare strumenti e fornitori di sicurezza. Microsoft offre una soluzione di sicurezza completa per l'IA con strumenti che interagiscono, riducendo notevolmente il volume di lavoro di integrazione per i team di sicurezza.

Passaggio 5: Adottare una soluzione di sicurezza completa per l'IA

L'IA introduce rischi specifici che le misure di sicurezza tradizionali potrebbero non affrontare completamente. La sicurezza per l'intelligenza artificiale è progettata per attenuare questi rischi.

La maggior parte delle aziende prevede di acquistare strumenti e piattaforme specializzati per proteggere sia l'utilizzo che lo sviluppo di applicazioni di intelligenza artificiale. Quando viene chiesto come pianificare la protezione e la protezione dell'utilizzo e dello sviluppo di applicazioni di intelligenza artificiale nelle proprie organizzazioni, la maggior parte degli intervistati (72%) ha dichiarato di voler acquistare una nuova soluzione di sicurezza dedicata per proteggere l'utilizzo e lo sviluppo dell'IA, mentre 64% ha dichiarato di voler usare soluzioni di sicurezza esistenti per proteggere l'IA.

I responsabili IT e della sicurezza credono che i principali collaboratori del budget per le nuove soluzioni per la protezione e la governance dell'IA saranno i reparti IT (63%) e i reparti di sicurezza informatica/sicurezza informatica (57%). Questi risultati mostrano che oltre a continuare a usare soluzioni di sicurezza esistenti, le organizzazioni vedono la necessità di cercare nuove soluzioni che possano aiutare a risolvere i rischi amplificati ed emergenti dell'IA.

Oltre alla piattaforma di sicurezza end-to-end di Microsoft, Microsoft offre strumenti di sicurezza completi per proteggere l'intelligenza artificiale, dall'individuazione di strumenti e dati di intelligenza artificiale alle protezioni progettate specificamente per mitigare le minacce all'intelligenza artificiale. Questi strumenti includono dashboard sofisticati e risorse di conformità, consentendo di rimanere al centro dei rischi e degli obblighi normativi.

Le funzionalità Microsoft offrono una protezione completa e completa per le app e i dati di intelligenza artificiale.

L'immagine seguente è una visualizzazione riepilogativa di tutte le funzionalità offerte da Microsoft per la protezione dell'adozione dell'intelligenza artificiale. Queste funzionalità sono elencate anche nella tabella seguente.

Diagramma dei prodotti Microsoft utili per la sicurezza per l'intelligenza artificiale.

Principale preoccupazione per i clienti Capacità
Evitare la perdita di dati e la condivisione eccessiva. - Controlli di accesso e endpoint - Microsoft Entra & Intune
- Gestione del comportamento di sicurezza dei dati per l'intelligenza artificiale - Microsoft Purview
- Classificazione, etichettatura e protezione dei dati - Microsoft Purview
- Prevenzione della perdita dei dati - Microsoft Purview
- Rilevamento e risposta alle attività anomale e rischiose - Microsoft Purview
- Sicurezza delle app SaaS - Microsoft Defender
Proteggere l'intelligenza artificiale dalle vulnerabilità e dalle minacce emergenti - Sicurezza e governance dei dati - Microsoft Purview
- Valutazione dei controlli di qualità, sicurezza e sicurezza - Azure AI Foundry
- Gestione del comportamento di sicurezza per asset di intelligenza artificiale (app, modelli, agenti di orchestrazione, SDK) - Microsoft Defender
- Criteri di governance del modello - Portale di Azure
- Scudo avviso di sicurezza del contenuto - Intelligenza artificiale di Azure
- Protezione dalle minacce per carichi di lavoro di intelligenza artificiale - Microsoft Defender
Gestire l'IA in modo da rispettare i requisiti normativi - Valutazioni della conformità rispetto alle normative e agli standard di intelligenza artificiale - Microsoft Purview
- Individuazione e catalogo di intelligenza artificiale - Microsoft Defender
- Controlli di richiesta e risposta, gestione del ciclo di vita, eDiscovery, conformità delle comunicazioni — Microsoft Purview
- Report di intelligenza artificiale per gli sviluppatori per registrare i dettagli e i controlli del progetto - Azure AI Foundry
- Valutazione dell'impatto sulla privacy - Microsoft Priva
- Mitigazione di contenuti dannosi, informazioni non corrette e materiali protetti - Sicurezza dei contenuti di Azure per intelligenza artificiale

Passaggi successivi per la protezione dell'intelligenza artificiale

Questa libreria illustra il processo di implementazione della sicurezza per l'intelligenza artificiale in un approccio a fasi.

Diagramma che illustra il processo di implementazione della sicurezza per l'intelligenza artificiale.

Seguire le indicazioni contenute in questa serie di articoli per altre informazioni sulla protezione dell'IA e sull'identificazione e l'implementazione delle funzionalità per raggiungere gli obiettivi dell'organizzazione.

Per altre informazioni sull'ottimizzazione del comportamento di sicurezza complessivo e zero trust, vedere Modernizzare rapidamente il comportamento di sicurezza.

Per iniziare a usare le protezioni di sicurezza consigliate per i compagni di intelligenza artificiale, vedere Usare la sicurezza Zero Trust per preparare i compagni di intelligenza artificiale, inclusi Microsoft Copilots.