Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
La serie di formazione di Ai Red Teaming 101 di Microsoft consente ai professionisti di proteggere i sistemi di intelligenza artificiale generativi dalle minacce emergenti. Questa serie analizza le vulnerabilità, le tecniche di attacco e le strategie di difesa, fornendo informazioni dettagliate interattive ed esperienza pratica. Sia che si sia esperti di sicurezza, ingegneri di Machine Learning o leader aziendali, si otterranno conoscenze pratiche tramite case study reali, episodi modulari e strumenti di test automatizzati. Esplora argomenti come attacchi di prompt injection, tecniche antagoniste a più turni e metodi di difesa scalabili per migliorare la tua competenza nella sicurezza dell'intelligenza artificiale.
Perché guardare questa serie di training
Ottenere consigli utili per identificare, sfruttare e difendersi dalle vulnerabilità critiche nei sistemi di intelligenza artificiale generativi. Informazioni su procedure consigliate, tecniche e linee guida basate su lezioni reali del Red Team di Microsoft per l'intelligenza artificiale.
Chi dovrebbe guardare questa serie di formazione
La serie di formazione è utile per i team di sicurezza, i tecnici ml, i professionisti dell'intelligenza artificiale e i responsabili aziendali che lavorano con l'IA. Si concentra principalmente su:
- Professionisti della sicurezza: informazioni sui vettori di attacco specifici dell'IA e sulle strategie di difesa.
- Professionisti di Machine Learning e ingegneri di intelligenza artificiale: aggiungere test di sicurezza ai flussi di lavoro di sviluppo di intelligenza artificiale.
- Architetti aziendali e della sicurezza: creare sistemi di intelligenza artificiale sicuri ed esplorare le minacce emergenti.
Suggerimento
I video di AI Red Teaming 101 sono modulari, quindi è possibile passare a qualsiasi sezione di interesse o iniziare all'inizio e guardarli tutti. Scarica le diapositive e segui il tuo ritmo.
Cosa include la serie di formazione
La serie di training fornisce indicazioni su come comprendere le vulnerabilità generative dell'IA, l'esecuzione di tecniche di attacco e l'implementazione di misure difensive. Il workshop include dimostrazioni pratiche, case study reali e strumenti di test automatizzati basati sulle procedure di sicurezza dell'IA di produzione di Microsoft.
Suggerimento
Tutti gli episodi includono dimostrazioni pratiche e l'accesso ai lab red teaming di Microsoft per acquisire esperienza pratica.
Introduzione e nozioni fondamentali
Episodio 1: Cos'è il red teaming per l'IA? - Introduzione ai concetti fondamentali per il red teaming dell'IA, i rischi principali nell'intelligenza artificiale generativa e la missione del red team di Intelligenza artificiale di Microsoft
Episodio 2: Funzionamento dei modelli di intelligenza artificiale generativa - Informazioni sull'architettura del modello, le fasi di training e il motivo per cui questi modelli creano rischi di sicurezza univoci
Parte A - Tecniche di attacco principali
Episodio 3: Direct Prompt Injection spiegato - Come gli attaccanti manipolano il comportamento del modello inserendo istruzioni dannose, inclusi casi di studio reali come l'attacco chatbot €1 SUV
Episodio 4: Spiegazione dell'inserimento indiretto della richiesta - Attacchi furtivi in cui le istruzioni dannose sono nascoste in origini dati esterne come messaggi di posta elettronica, siti Web o database
Episodio 5: attacchi Single-Turn - Tecniche avanzate di ingegneria dei prompt, tra cui interferenza sulla personalità, manipolazione emotiva e aggiramento dei filtri con trucchi di codifica
Episodio 6: Attacchi a più turni - tecniche come Skeleton Key e Crescendo che gradualmente guidano i modelli verso il bypass delle protezioni di sicurezza
Parte B - Difesa e mitigazione
Episodio 7: Difesa contro gli attacchi - Strategie di mitigazione e tecniche di protezione, inclusi i metodi di difesa in evidenza di Microsoft (delimitazione, contrassegno dei dati e codifica)
Parte C - Automazione e scalabilità
Episodio 8: Automatizzare il red teaming dell'IA con PyRIT - Introduzione allo strumento open-source di Microsoft per automatizzare e scalare i test adversari dei sistemi di intelligenza artificiale generativa, il Python Risk Identification Tool (PyRIT)
Episodio 9: Automazione degli attacchi Single-Turn - Dimostrazione pratica della configurazione di set di dati, destinazioni e logica di assegnazione dei punteggi per inviare molte richieste contemporaneamente usando PyRIT
Episodio 10: Automazione degli Attacchi Multi-Turn - Tecniche di automazione avanzate per conversazioni a più turni, incluse le conversazioni con modelli avversari e il testare sia i sistemi di generazione di testo che di immagini
Cosa imparerai
Dopo aver completato questa serie di training, si comprenderà quanto segue:
- Concetti fondamentali del red teaming di intelligenza artificiale rispetto agli approcci di red teaming tradizionali
- Vulnerabilità principali nei sistemi di intelligenza artificiale generativa, ad esempio inserimento di richieste e mancata allineamento del modello
- Tecniche di attacco, dalla semplice manipolazione dei prompt a strategie avversarie sofisticate
- Strategie di difesa, incluse tecniche di mitigazione comprovate, come i metodi di messa in evidenza di Microsoft
- Strumenti di automazione per ridimensionare le attività di red teaming usando PyRIT e altri strumenti open source
- Applicazioni reali con laboratori pratici e case study sul lavoro di sicurezza dell'IA utilizzata nella produzione da parte di Microsoft