Soluzioni Microsoft per proteggere il futuro di intelligenza artificiale e Machine Learning

Di Andrew Marshall, Raul Rojas, Jay Stokes e Donald Brinkman

Un ringraziamento speciale a Mark Cartwright e Graham Calladine

Schema riepilogativo

L'intelligenza artificiale (IA) e Machine Learning (ML) stanno già facendo un grande impatto sul funzionamento, la socializzazione e la vita delle persone. L'uso di prodotti e servizi basati su intelligenza artificiale e Machine Learning è in costante aumento, per questo motivo è necessario intraprendere azioni specializzate per salvaguardare non solo i clienti e i relativi dati, ma anche per proteggere l'intelligenza artificiale e gli algoritmi da abusi, troll ed estrazione. Questi documenti condividono alcune lezioni sulla sicurezza di Microsoft, acquisite dalla progettazione di prodotti e servizi online operativi basati sull'intelligenza artificiale. Anche se è difficile prevedere il modo in cui si svolge quest'area, abbiamo concluso che ci sono problemi interattivi da affrontare ora. Sono stati inoltre rilevati problemi strategici che il settore tecnico deve prevenire per garantire la protezione dei dati e la sicurezza a lungo termine dei clienti.

Questo documento non riguarda gli attacchi basati sull'intelligenza artificiale o anche l'intelligenza artificiale sfruttata dagli avversari umani. Ci concentriamo invece sui problemi che microsoft e i partner del settore devono affrontare per proteggere i prodotti e i servizi basati sull'IA da attacchi altamente sofisticati, creativi e dannosi, indipendentemente dai singoli troll o da interi pacchetti di lupo.

Questo documento è incentrato interamente sui problemi di ingegneria della sicurezza specifici dello spazio di intelligenza artificiale/MACHINE, ma a causa della natura estesa del dominio InfoSec si è capito che i problemi e i risultati discussi qui si sovrappongono a un certo livello con i domini di privacy ed etica. Poiché questo documento evidenzia le questioni di importanza strategica per il settore tecnologico, i destinatari di questo documento sono i responsabili di progettazione della sicurezza.

I primi risultati propongono quanto segue:

  • Per attenuare i tipi di problemi di sicurezza illustrati in questo documento, sono necessari pivot specifici di intelligenza artificiale e Machine Learning rispetto alle pratiche di sicurezza esistenti.

  • I modelli di Machine Learning non sono in gran parte in grado di distinguere tra input dannosi e dati anomali benigni. Un'origine significativa dei dati di training deriva da set di dati pubblici non elaborati e non modificati, aperti a 3contributi rd-party. Gli utenti malintenzionati non devono compromettere i set di dati quando sono liberi di contribuire. Nel corso del tempo, i dati dannosi con bassa attendibilità diventano dati attendibili con attendibilità elevata, se la struttura o la formattazione dei dati rimane corretta.

  • Dato il gran numero di livelli di classificatori/neuroni nascosti che possono essere usati in un modello di Deep Learning, sull'output di processi decisionali e algoritmi di intelligenza artificiale/MACHINE viene inserita troppa attendibilità senza una conoscenza critica del modo in cui queste decisioni sono state raggiunte. Questo offuscamento crea l'impossibilità di "mostrare il proprio lavoro" e rende difficile difendere in modo comprovato i risultati di intelligenza artificiale e Machine Learning quando vengono messi in discussione.

  • Intelligenza artificiale e Machine Learning vengono usati sempre più per supportare i processi decisionali di alto valore in campo medico e in altri settori in cui una decisione sbagliata può comportare infortuni gravi o morte. La mancanza di funzionalità per la creazione di report legali in intelligenza artificiale e Machine Learning, impedisce che queste conclusioni di alto valore siano difendibili sia in tribunale che da parte dell'opinione pubblica.

Gli obiettivi di questo documento riguardano (1) evidenziare i problemi di ingegneria della sicurezza, che sono univoci per lo spazio di intelligenza artificiale/MACHINE, (2) illustrano alcuni pensieri iniziali e osservazioni sulle minacce emergenti e (3) condividono i primi pensieri sulle potenziali correzioni. Alcune delle problematiche illustrate da questo documento sono problematiche che il settore deve prevenire nei prossimi due anni, mentre altre sono problematiche che devono obbligatoriamente essere affrontate nel presente. Senza un'analisi più approfondita delle aree descritte in questo documento, rischiamo che l'IA futura diventi una scatola nera grazie all'impossibilità di considerare attendibili o comprendere (e modificare, se necessario) i processi decisionali dell'IA a livello matematico [7]. Dal punto di vista della sicurezza, questo significa effettivamente perdita di controllo e una partenza dai principi guida di Microsoft sull'intelligenza artificiale [3, 7].

Nuove sfide nella progettazione della sicurezza

I vettori di attacco software tradizionali sono ancora fondamentali per affrontare, ma non forniscono una copertura sufficiente nel panorama delle minacce di intelligenza artificiale/Machine Learning. Il settore tecnologico deve evitare di combattere i problemi di nuova generazione con soluzioni di vecchia generazione, creando nuovi framework e adottando nuovi approcci che interessano i gap nella progettazione e nel funzionamento dei servizi basati su intelligenza artificiale e Machine Learning:

  1. Come illustrato di seguito, le basi per lo sviluppo e per le operazioni sicure devono incorporare i concetti di resilienza e discrezionalità quando proteggono intelligenza artificiale e dati sotto il proprio controllo. I pivot specifici per intelligenza artificiale sono necessari nelle aree di autenticazione, separazione dei compiti, convalida degli input e mitigazione di attacchi Denial of Service. Senza investimenti in queste aree, i servizi di IA/ML continuano a combattere una battaglia in salita contro avversari di tutti i livelli di abilità.

  2. L'intelligenza artificiale deve essere in grado di riconoscere le distorsioni in altri, senza subire distorsioni nelle interazioni con gli utenti. Per raggiungere questo risultato è necessaria una conoscenza collettiva e in continua evoluzione di distorsioni, stereotipi, gerghi e altri costrutti culturali. Tale comprensione consente di proteggere l'intelligenza artificiale da attacchi di ingegneria sociale e manomissione del set di dati. Un sistema implementato correttamente diventa effettivamente più forte da tali attacchi e essere in grado di condividere la sua comprensione espansa con altre interfacce AI.

  3. Gli algoritmi di Machine Learning devono essere in grado di distinguere i dati introdotti in modo dannoso dagli eventi "Black Swan" benigni [1] rifiutando i dati di training con un impatto negativo sui risultati. In caso contrario, i modelli di apprendimento sono sempre soggetti a giochi da parte di utenti malintenzionati e troll.

  4. L'intelligenza artificiale deve disporre di funzionalità legali predefinite. Ciò consente alle aziende di fornire ai clienti trasparenza e responsabilità dell'IA, assicurando che le sue azioni non siano solo verificabili ma anche legalmente defensibili. Queste funzionalità servono anche da forma preliminare del "rilevamento delle intrusioni di intelligenza artificiale", consentendo ai tecnici di determinare il momento esatto in cui è stata presa una decisione da parte di un classificatore, i dati che lo hanno influenzato e se i dati sono attendibili. Le funzionalità di visualizzazione dei dati in questa area stanno avanzando rapidamente e mostrano la promessa di aiutare i tecnici a identificare e risolvere le cause radice per questi problemi complessi [10].

  5. L'intelligenza artificiale deve riconoscere e proteggere le informazioni riservate, anche se gli utenti non le riconoscono come tali. La ricca esperienza utente nell'intelligenza artificiale richiede grandi quantità di dati non elaborati su cui eseguire il training, quindi è necessario pianificare l'"eccessiva condivisione" da parte dei clienti.

Ognuna di queste aree, incluse le minacce e le potenziali mitigazioni, viene illustrata in dettaglio di seguito.

L'intelligenza artificiale richiede nuovi pivot ai tradizionali modelli di progettazione e di operazioni sicure: introduzione di resilienza e discrezionalità

I progettisti di intelligenza artificiale devono garantire la riservatezza, l'integrità e la disponibilità dei dati sensibili, che il sistema di intelligenza artificiale sia privo di vulnerabilità note e fornisca controlli per la protezione, il rilevamento e la risposta a comportamenti dannosi contro il sistema o i dati dell'utente.

I modi tradizionali per difendersi da attacchi dannosi non forniscono la stessa copertura in questo nuovo paradigma, in cui gli attacchi basati su voce/video/immagine possono aggirare i filtri e le difese correnti. È necessario esplorare nuovi aspetti della classificazione dei rischi per evitare che nuovi abusi sfruttino l'intelligenza artificiale. Questa operazione va oltre l'identificazione della superficie di attacco tradizionale tramite test con dati casuali o manipolazione degli input (questi attacchi presentano anche propri pivot specifici di intelligenza artificiale). È necessario incorporare scenari specifici dello spazio di intelligenza artificiale o Machine Learning. La chiave di questi scenari sono le esperienze utente di intelligenza artificiale, come ad esempio voce, video e movimenti. Le minacce associate a queste esperienze non sono state tradizionalmente modellate. Ad esempio, il contenuto video ora viene adattato per indurre effetti fisici. Inoltre, la ricerca dimostra che i comandi di attacco basati su audio possono essere creati [9].

L'imprevedibilità, la creatività e la pericolosità di criminali, antagonisti determinati e troll richiede di infondere le intelligenze artificiali con valori di resilienza e discrezione:

Resilienza: il sistema deve essere in grado di identificare comportamenti anomali e prevenire la manipolazione o la coercizione al di fuori dei normali limiti di comportamento accettabile in relazione al sistema di intelligenza artificiale e all'attività specifica. Si tratta di nuovi tipi di attacchi specifici dello spazio di intelligenza artificiale o Machine Learning. I sistemi devono essere progettati per resistere a input che altrimenti risulterebbero in conflitto con la legislazione locale, l'etica e i valori della community e dei suoi autori. Ciò significa fornire all'intelligenza artificiale la possibilità di determinare quando un'interazione va "fuori script". Questa operazione può essere eseguita con la modalità seguente:

  1. Individuare singoli utenti che deviano dalle norme impostate dai vari cluster di utenti simili, ad esempio utenti che sembrano tipi troppo veloci, rispondono troppo velocemente, non dormono o attivano parti del sistema che altri utenti non lo fanno.

  2. Identificare i modelli di comportamento noti come indicatori di attacchi di tipo probing con finalità dannose e l'avvio della catena di attacco intrusione di rete.

  3. Riconoscere ogni volta che più utenti agiscono in modo coordinato; ad esempio, più utenti che eseguono la stessa query inspiegabile ma intenzionalmente creata, picchi improvvisi nel numero di utenti o picchi improvvisi nell'attivazione di parti specifiche di un sistema di intelligenza artificiale.

Gli attacchi di questo tipo devono essere considerati alla pari con gli attacchi Denial of Service, perché l'intelligenza artificiale potrebbe richiedere correzioni di bug e ripetere il training per non cadere di nuovo per gli stessi trucchi. Di importanza critica è la capacità di identificare finalità dannose in presenza di contromisure come quelle usate per sconfiggere le API di analisi del sentiment [4].

Discrezione: l'IA deve essere un responsabile responsabile responsabile e affidabile di tutte le informazioni a cui ha accesso. Gli esseri umani assegnano senza dubbio un certo livello di fiducia nelle relazioni di intelligenza artificiale. A un certo punto, questi agenti comunicheranno con altri agenti o utenti per conto dell'utente. L'utente deve essere in grado di considerare attendibile un sistema di intelligenza artificiale che disponga di un livello di discrezione sufficiente a condividere in un modulo con restrizioni ciò che è necessario condividere per conto di altri agenti, che possono completare le attività per conto proprio. Inoltre, più agenti che interagiscono con i dati personali per conto dell'utente non devono avere accesso globale. Tutti gli scenari di accesso ai dati che coinvolgono più agenti di intelligenza artificiale o bot devono limitare la durata dell'accesso al limite minimo necessario. Gli utenti devono anche essere in grado di negare i dati e rifiutare l'autenticazione degli agenti da società o impostazioni locali specifiche, proprio come i Web browser consentono il blocco del sito oggi. Per risolvere questo problema, è necessario considerare nuovi privilegi di autenticazione tra agenti e privilegi di accesso ai dati, come ad esempio gli investimenti di autenticazione utente basati sul cloud effettuati nei primi anni di cloud computing.

L'intelligenza artificiale deve essere in grado di riconoscere le distorsioni in altri, senza subire distorsioni

L'intelligenza artificiale dovrebbe essere equa e inclusiva senza discriminare un determinato gruppo di singoli utenti o risultati validi, tuttavia per ottenere questo risultato deve avere una conoscenza innata della distorsione. Senza essere addestrati a riconoscere pregiudizi, trolling o sarcasmo, l'IA può essere ingannata da coloro che cercano risate a buon mercato al meglio, o causare danni ai clienti al peggio.

Il raggiungimento di questo livello di consapevolezza richiede "brave persone che insegnano cose negative all'intelligenza artificiale", in quanto richiede una conoscenza completa e continuativa delle distorsioni culturali. L'IA dovrebbe essere in grado di riconoscere un utente con cui ha avuto interazioni negative con in passato ed esercitare attenzione appropriata, simile a come i genitori insegnano ai loro figli a essere diffidati di sconosciuti. Il modo migliore per affrontare questo problema consiste nell'esporre attentamente l'intelligenza artificiale ai troll in modo controllato, moderato o limitato. In questo modo l'intelligenza artificiale può imparare la differenza tra un utente benevolo che "smuove le acque" e l'effettiva pericolosità o trolling. I troll forniscono un prezioso flusso di dati di training per l'intelligenza artificiale, rendendola più resiliente contro gli attacchi futuri.

L'intelligenza artificiale deve anche essere in grado di riconoscere la distorsione nei set di dati su cui esegue il training. Potrebbe trattarsi di una cultura o di un'area contenente il gergo usato da un particolare gruppo di persone oppure argomenti o punti di vista di interesse specifico per un certo gruppo. Come con i dati di training introdotti in modo dannoso, l'IA deve essere resiliente agli effetti di questi dati sulle proprie inferenze e deduzioni. Si tratta in sostanza di un problema sofisticato di convalida dell'input con analogie con il controllo dei limiti. Anziché gestire lunghezze e offset del buffer, i controlli del buffer e dei limiti sono rappresentati da parole con contrassegno rosso, provenienti da un'ampia gamma di origini. Sono poi essenziali la cronologia delle conversazioni e il contesto in cui vengono usate le parole. Proprio come le pratiche di difesa in profondità vengono usati per stratificare le protezioni su un front-end API tradizionale di Web Service API, più livelli di protezione dovrebbero essere sfruttati nelle tecniche di riconoscimento e prevenzione delle distorsioni.

Gli algoritmi di Machine Learning devono essere in grado di distinguere i dati introdotti in modo dannoso dagli eventi "Black Swan" non dannosi

Numerosi white paper sono pubblicati sul potenziale teorico di manomissione del modello/classificatore di Machine Learning e l'estrazione/furto dai servizi in cui gli utenti malintenzionati hanno accesso sia al set di dati di training che a una conoscenza informata del modello in uso [2, 3, 6, 7]. Il problema di over-arching è che tutti i classificatori di Machine Learning possono essere ingannati da un utente malintenzionato che ha il controllo sui dati del set di training. Gli utenti malintenzionati non hanno necessariamente bisogno della possibilità di modificare i dati del set di training esistenti, devono solo essere in grado di aggiungerli e fare in modo che gli input diventino "attendibili" nel tempo attraverso l'impossibilità dei classificatori Machine Learning di distinguere i dati dannosi da dati anomali autentici.

Questo problema di supply chain dei dati di training presenta il concetto di "integrità della decisione", ovvero la possibilità di identificare e rifiutare i dati di training o l'input dell'utente introdotti in modo dannoso prima che abbiano un impatto negativo sul comportamento del classificatore. La logica è che i dati di training attendibili hanno una maggiore probabilità di generare risultati/decisioni affidabili. Anche se è ancora fondamentale eseguire il training e essere resilienti ai dati non attendibili, la natura dannosa di tali dati deve essere analizzata prima di diventare parte di un corpo di training con attendibilità elevata. Senza tali misure, è possibile che l'intelligenza artificiale venga forzata a una reazione eccessiva nei confronti del trolling e a rifiutare il servizio agli utenti legittimi.

Si tratta di un problema particolare in cui gli algoritmi di apprendimento non supervisionati eseguono il training su set di dati non curati o non attendibili. Ciò significa che gli utenti malintenzionati possono introdurre tutti i dati desiderati purché il formato sia valido e purché all'algoritmo venga eseguito il training, in modo da considerare attendibile il punto dati in modo analogo al resto del set di training. Con un numero sufficiente di input appositamente creati da un utente malintenzionato, l'algoritmo di training perde la possibilità di discernere il rumore e le anomalie dai dati ad attendibilità elevata.

Come esempio di questo rischio, si può immaginare un database di segni di stop in tutto il mondo, in ogni lingua. Un database del genere sarebbe molto difficile da curare a causa del numero di immagini e lingue coinvolte. I contributi dannosi a tale set di dati potrebbero non essere più osservati fino al punto in cui le automobili con pilota automatico non riconoscerebbero più i segni di stop. La resilienza dei dati e le mitigazioni dell'integrità delle decisioni devono essere implementate qui per identificare ed eliminare i danni di training eseguiti da dati dannosi per impedire che diventino una parte fondamentale del modello di apprendimento.

L'intelligenza artificiale deve disporre di un sistema di registrazione legale e di sicurezza integrato per garantire trasparenza e responsabilità

Infine, l'intelligenza artificiale sarà in grado di agire in qualità professionale come agente per conto dell'utente, assistendolo nel processo decisionale a impatto elevato. Un esempio potrebbe essere un'intelligenza artificiale che consente l'elaborazione di transazioni finanziarie. Se l'IA viene sfruttata e le transazioni manipolate in qualche modo, le conseguenze potrebbero variare dall'individuo al sistema. Negli scenari di alto valore, l'IA necessita di registrazione forense e sicurezza appropriata per fornire integrità, trasparenza, responsabilità e in alcuni casi prove in cui possono verificarsi responsabilità civili o penali.

I servizi di intelligenza artificiale essenziali necessitano di strutture di controllo/traccia degli eventi a livello di algoritmo in cui gli sviluppatori possono esaminare lo stato registrato di classificatori specifici, che potrebbero aver portato a una decisione imprecisa. Questa funzionalità è necessaria a livello di settore per dimostrare la correttezza e la trasparenza delle decisioni generate dall'intelligenza artificiale, ogni volta che vengono messe in discussione.

Le strutture di event tracing possono iniziare con la correlazione di informazioni di base sulle decisioni, ad esempio:

  1. L'intervallo di tempo in cui si è verificato l'ultimo evento di training

  2. Il timestamp della voce più recente del set di dati su cui è stato eseguito il training

  3. Pesi e livelli di attendibilità dei classificatori chiave usati per stabilire decisioni a impatto elevato

  4. I classificatori o i componenti coinvolti nella decisione

  5. La decisione finale di alto valore raggiunta dall'algoritmo

Tale traccia è eccessiva per la maggior parte del processo decisionale assistito dall'algoritmo. Tuttavia, avere la possibilità di identificare i punti dati e i metadati dell'algoritmo che portano a risultati specifici sono di grande vantaggio nel processo decisionale di alto valore. Tali funzionalità non solo dimostrano attendibilità e integrità grazie alla capacità dell'algoritmo di "mostrare il proprio lavoro", ma questi dati possono essere usati anche per l'ottimizzazione.

Un'altra funzionalità legale necessaria per intelligenza artificiale e Machine Learning è il rilevamento delle manomissioni. Così come è necessario che l'intelligenza artificiale riconosca la distorsione e non sia suscettibile a essa, è anche necessario che siano disponibili funzionalità legali per aiutare i tecnici a rilevare e rispondere a tali attacchi. Tali funzionalità forensi sono di enorme valore quando abbinate a tecniche di visualizzazione dei dati [10] che consentono il controllo, il debug e l'ottimizzazione degli algoritmi per risultati più efficaci.

L'intelligenza artificiale deve proteggere le informazioni riservate, anche se gli utenti non lo fanno

Per esperienze avanzate sono necessari dati avanzati. Gli utenti forniscono già volontariamente grandi quantità di dati per il training del Machine Learning. Quest'ultimo spazia dai contenuti della coda di streaming video alle tendenze di acquisto con carte di credito o cronologie delle transazioni usate per rilevare illeciti. L'IA deve avere un senso di discrezione radicato quando si tratta di gestire i dati degli utenti, agendo sempre per proteggerli anche quando si è volontariamente volontari da un pubblico di over sharing.

Poiché un'intelligenza artificiale può avere un gruppo autenticato di "peer" con cui comunica per eseguire attività complesse, deve anche riconoscere la necessità di limitare i dati condivisi con tali peer.

Osservazioni iniziali sulla risoluzione dei problemi di sicurezza dell'intelligenza artificiale

Nonostante lo stato nascente di questo progetto, crediamo che le prove compilate fino a oggi mostrano un'indagine più approfondita su ognuna delle aree seguenti è fondamentale per spostare il nostro settore verso prodotti/servizi di IA/ML più affidabili e sicuri. Di seguito sono riportate le osservazioni e i pensieri iniziali sui risultati desiderabili in questo spazio.

  1. Potrebbero essere istituiti test di penetrazione focalizzati su intelligenza artificiale e Machine Learning e organismi di revisione della sicurezza per garantire che l'intelligenza artificiale futura condivida i valori di Microsoft e si allinei agli Asilomar AI Principles (Principi di intelligenza artificiale Asilomar).

    1. Un gruppo di questo tipo può anche sviluppare strumenti e framework che possono essere usati a livello di settore per garantire la protezione dei servizi basati su intelligenza artificiale e Machine Learning.
    2. Nel corso del tempo, questa esperienza si svilupperà organicamente all'interno dei gruppi di progettazione, così come è successo con le tradizionali competenze in materia di sicurezza negli ultimi 10 anni.
  2. Potrebbe essere sviluppato un training che consenta alle aziende di fornire obiettivi come la democratizzazione dell'intelligenza artificiale, riducendo al tempo stesso le sfide discusse in questo documento.

    1. Il training di sicurezza specifico per l'intelligenza artificiale garantisce che i tecnici siano consapevoli dei rischi posti all'intelligenza artificiale e delle risorse a loro disposizione. Questo materiale deve essere fornito con la formazione corrente sulla protezione dei dati dei clienti.
    2. Questa operazione può essere eseguita senza richiedere a tutti i data scientist di diventare esperti in materia di sicurezza; in questo caso, l'obiettivo è quello di informare gli sviluppatori sulla resilienza e la discrezionalità applicata ai casi d'uso dell'intelligenza artificiale.
    3. Gli sviluppatori dovranno comprendere i "blocchi predefiniti" sicuri dei servizi di intelligenza artificiale riutilizzati nell'intera azienda. È necessario sottolineare la progettazione a tolleranza di errore con sottosistemi, che possono essere facilmente disattivati (ad esempio processori di immagini, parser di testo).
  3. I classificatori Machine Learning e i relativi algoritmi sottostanti potrebbero essere finalizzati e in grado di rilevare dati di training dannosi, senza contaminare i dati di training validi attualmente in uso o inclinare i risultati.

    1. Le tecniche come Reject on Negative Input [5] richiedono cicli di ricerca per analizzare.

    2. Questo lavoro comporta verifica matematica, modello di verifica nel codice e test sui dati anomali dannosi e innocui.

    3. Il controllo a campione o la moderazione da parte dell'utente possono essere utile in questo caso, in particolare laddove siano presenti anomalie statistiche.

    4. È possibile creare "classificatori di supervisione" per una conoscenza più vasta delle minacce in più intelligenze artificiali. La creazione di questi classificatori migliora notevolmente la sicurezza del sistema poiché l'utente malintenzionato non può più sottrarre un particolare modello.

    5. È possibile collegare le intelligenze artificiali per identificare le minacce negli altri sistemi

  4. Potrebbe essere compilata una libreria Machine Learning di controllo o analisi legale e centralizzata che definisce uno standard per la trasparenza e l'affidabilità dell'intelligenza artificiale.

    1. Le funzionalità di query possono essere create anche per il controllo e la ricostruzione di decisioni aziendali a impatto elevato per l'intelligenza artificiale.
  5. Il gergo in uso da parte degli antagonisti in diversi gruppi culturali e social media può essere continuamente inventariato e analizzato dall'intelligenza artificiale, per rilevare e rispondere a trolling, sarcasmo e così via.

    1. Le intelligenze artificiali devono essere resilienti in tutti i tipi di gergo, che sia tecnico, regionale o specifici di un dato forum.

    2. Questo corpo delle conoscenze può essere usato anche nell'automazione di filtro/etichettatura/blocco del contenuto per risolvere i problemi di scalabilità dei moderatori.

    3. Questo database globale di termini può essere ospitato nelle librerie di sviluppo o persino esposto tramite API del servizio cloud, per il riuso da parte di diverse intelligenze artificiali, assicurando che le nuove intelligenze artificiali traggano vantaggio dalla saggezza combinata delle meno recenti.

  6. È possibile creare un "Framework di test con dati casuali per Machine Learning" che fornisca ai tecnici la possibilità di inserire diversi tipi di attacchi nei set di training di test per la valutazione da parte dell'intelligenza artificiale.

    1. Questo potrebbe essere incentrato non solo sul testo non solo, ma sui dati di immagine, voce e movimento e sulle permutazioni di tali tipi di dati.

Conclusione

Gli Asilomar AI Principles(Principi IA Asilomar) illustrano la complessità di arricchire l'intelligenza artificiale in un modo che va sempre a beneficio dell'umanità. Le interfacce AI future devono interagire con altre interfacce utente per offrire esperienze utente avanzate e accattivanti. Ciò significa che non è sufficiente per Microsoft "ottenere l'intelligenza artificiale giusta" dal punto di vista della sicurezza, il mondo deve. Abbiamo bisogno di allineamento e collaborazione del settore con una maggiore visibilità portata ai problemi in questo documento in modo simile alla nostra spinta mondiale per una Convenzione di Ginevra digitale [8]. Affrontando i problemi presentati in questo articolo, è possibile iniziare a guidare clienti e partner del settore in un percorso in cui l'intelligenza artificiale viene effettivamente democratizzata e accresce l'intelligenza di tutta l'umanità.

Bibliografia

[1] Taleb, Nassim Nicholas (2007), The Black Swan: The Impact of the Highly Improbable, Random House, ISBN 978-1400063512

[2] Destinazioni Tramèr, Fan Zhang, Ari Juels, Michael K. Reiter, Thomas Ristenpart, Furto di modelli di Machine Learning tramite le API di stima

[3] Satya Nadella:La partnership del futuro

[4] Claburn, Thomas:Google's troll-distruzione di intelligenza artificiale non riesce a far fronte a errori di digitazioni

Marco Barreno, Blaine Nelson, Anthony D. Joseph, J.D. Tygar:The security of machine learning

[6] Wolchover, Natalie:This Artificial Intelligence Pioneer ha alcune preoccupazioni

[7] Conn, Ariel:Come si allinea l'intelligenza artificiale ai valori umani?

Smith, Brad: La necessità di un'azione collettiva urgente per proteggere le persone online: Lezioni del cyberattacco della scorsa settimana

[9] Nicholas Carlini, Pratyush Mishra, Tavish Vaidya, Yangkai Zhang, Micah Sherr, Clay Shields, David Wagner, Wenchao Zhou:Hidden Voice Commands

[10] Fernanda Viégas, Martin Wattenberg, Daniel Smilkov, James Wexler, Jimbo Wilson, Nikhil Thorat, Charles Nicholson, Google Research:Big Picture