Condividi tramite


Serie di allenamento di red teaming per l'intelligenza artificiale: sicurezza dei sistemi di intelligenza artificiale generativi

La serie di formazione di Ai Red Teaming 101 di Microsoft consente ai professionisti di proteggere i sistemi di intelligenza artificiale generativi dalle minacce emergenti. Questa serie analizza le vulnerabilità, le tecniche di attacco e le strategie di difesa, fornendo informazioni dettagliate interattive ed esperienza pratica. Sia che si sia esperti di sicurezza, ingegneri di Machine Learning o leader aziendali, si otterranno conoscenze pratiche tramite case study reali, episodi modulari e strumenti di test automatizzati. Esplora argomenti come attacchi di prompt injection, tecniche antagoniste a più turni e metodi di difesa scalabili per migliorare la tua competenza nella sicurezza dell'intelligenza artificiale.

Perché guardare questa serie di training

Ottenere consigli utili per identificare, sfruttare e difendersi dalle vulnerabilità critiche nei sistemi di intelligenza artificiale generativi. Informazioni su procedure consigliate, tecniche e linee guida basate su lezioni reali del Red Team di Microsoft per l'intelligenza artificiale.

Chi dovrebbe guardare questa serie di formazione

La serie di formazione è utile per i team di sicurezza, i tecnici ml, i professionisti dell'intelligenza artificiale e i responsabili aziendali che lavorano con l'IA. Si concentra principalmente su:

  • Professionisti della sicurezza: informazioni sui vettori di attacco specifici dell'IA e sulle strategie di difesa.
  • Professionisti di Machine Learning e ingegneri di intelligenza artificiale: aggiungere test di sicurezza ai flussi di lavoro di sviluppo di intelligenza artificiale.
  • Architetti aziendali e della sicurezza: creare sistemi di intelligenza artificiale sicuri ed esplorare le minacce emergenti.

Suggerimento

I video di AI Red Teaming 101 sono modulari, quindi è possibile passare a qualsiasi sezione di interesse o iniziare all'inizio e guardarli tutti. Scarica le diapositive e segui il tuo ritmo.

Cosa include la serie di formazione

La serie di training fornisce indicazioni su come comprendere le vulnerabilità generative dell'IA, l'esecuzione di tecniche di attacco e l'implementazione di misure difensive. Il workshop include dimostrazioni pratiche, case study reali e strumenti di test automatizzati basati sulle procedure di sicurezza dell'IA di produzione di Microsoft.

Suggerimento

Tutti gli episodi includono dimostrazioni pratiche e l'accesso ai lab red teaming di Microsoft per acquisire esperienza pratica.

Introduzione e nozioni fondamentali

Episodio 1: Cos'è il red teaming per l'IA? - Introduzione ai concetti fondamentali per il red teaming dell'IA, i rischi principali nell'intelligenza artificiale generativa e la missione del red team di Intelligenza artificiale di Microsoft

Episodio 2: Funzionamento dei modelli di intelligenza artificiale generativa - Informazioni sull'architettura del modello, le fasi di training e il motivo per cui questi modelli creano rischi di sicurezza univoci

Parte A - Tecniche di attacco principali

Episodio 3: Direct Prompt Injection spiegato - Come gli attaccanti manipolano il comportamento del modello inserendo istruzioni dannose, inclusi casi di studio reali come l'attacco chatbot €1 SUV

Episodio 4: Spiegazione dell'inserimento indiretto della richiesta - Attacchi furtivi in cui le istruzioni dannose sono nascoste in origini dati esterne come messaggi di posta elettronica, siti Web o database

Episodio 5: attacchi Single-Turn - Tecniche avanzate di ingegneria dei prompt, tra cui interferenza sulla personalità, manipolazione emotiva e aggiramento dei filtri con trucchi di codifica

Episodio 6: Attacchi a più turni - tecniche come Skeleton Key e Crescendo che gradualmente guidano i modelli verso il bypass delle protezioni di sicurezza

Parte B - Difesa e mitigazione

Episodio 7: Difesa contro gli attacchi - Strategie di mitigazione e tecniche di protezione, inclusi i metodi di difesa in evidenza di Microsoft (delimitazione, contrassegno dei dati e codifica)

Parte C - Automazione e scalabilità

Episodio 8: Automatizzare il red teaming dell'IA con PyRIT - Introduzione allo strumento open-source di Microsoft per automatizzare e scalare i test adversari dei sistemi di intelligenza artificiale generativa, il Python Risk Identification Tool (PyRIT)

Episodio 9: Automazione degli attacchi Single-Turn - Dimostrazione pratica della configurazione di set di dati, destinazioni e logica di assegnazione dei punteggi per inviare molte richieste contemporaneamente usando PyRIT

Episodio 10: Automazione degli Attacchi Multi-Turn - Tecniche di automazione avanzate per conversazioni a più turni, incluse le conversazioni con modelli avversari e il testare sia i sistemi di generazione di testo che di immagini

Cosa imparerai

Dopo aver completato questa serie di training, si comprenderà quanto segue:

  • Concetti fondamentali del red teaming di intelligenza artificiale rispetto agli approcci di red teaming tradizionali
  • Vulnerabilità principali nei sistemi di intelligenza artificiale generativa, ad esempio inserimento di richieste e mancata allineamento del modello
  • Tecniche di attacco, dalla semplice manipolazione dei prompt a strategie avversarie sofisticate
  • Strategie di difesa, incluse tecniche di mitigazione comprovate, come i metodi di messa in evidenza di Microsoft
  • Strumenti di automazione per ridimensionare le attività di red teaming usando PyRIT e altri strumenti open source
  • Applicazioni reali con laboratori pratici e case study sul lavoro di sicurezza dell'IA utilizzata nella produzione da parte di Microsoft