Sécurisation des futurs systèmes d'intelligence artificielle et de Machine Learning chez Microsoft

Auteurs : Andrew Marshall, Raul Rojas, Jay Stokes et Donald Brinkman

Remerciements particuliers à Mark Cartwright et Graham Calladine

Résumé

L’intelligence artificielle (IA) et la machine Apprentissage (ML) ont déjà un impact important sur la façon dont les gens travaillent, socialisent et vivent leur vie. Avec l'augmentation de la consommation de produits et de services construits autour de l'IA ou du ML, des actions spécialisées doivent être entreprises pour protéger non seulement vos clients et leurs données, mais aussi pour protéger votre IA et vos algorithmes contre les abus, le trollage et l'extraction. Ce document porte sur certaines leçons de sécurité de Microsoft, apprises lors de la conception de produits et de l'exploitation de services en ligne reposant sur l'intelligence artificielle. Bien qu’il soit difficile de prédire la façon dont cette zone se déroule, nous avons conclu qu’il existe des problèmes actionnables à résoudre maintenant. De plus, nous avons constaté qu'il existe des problèmes stratégiques que le secteur des technologies doit anticiper pour assurer la sécurité à long terme des clients et de leurs données.

Ce document ne concerne pas les attaques basées sur l’IA ni même l’IA exploitées par des adversaires humains. Au lieu de cela, nous nous concentrons sur les problèmes que Microsoft et les partenaires du secteur doivent résoudre pour protéger les produits et services basés sur l’IA contre les attaques hautement sophistiquées, créatives et malveillantes, qu’elles soient effectuées par des trolls individuels ou des packs de loups entiers.

Ce document se concentre entièrement sur les problèmes d’ingénierie de sécurité propres à l’espace IA/ML, mais en raison de la nature étendue du domaine InfoSec, il est compris que les problèmes et les résultats abordés ici chevauchent un certain nombre de domaines de confidentialité et d’éthique. Comme ce document met en évidence des défis d'importance stratégique pour le secteur des technologies, le public cible de ce document est le leadership en ingénierie de sécurité sur l'ensemble du secteur.

Nos premières conclusions suggèrent ce qui suit :

  • Des pivots spécifiques à l'IA ou au ML pour les pratiques de sécurité existantes sont nécessaires pour atténuer les types de problèmes de sécurité abordés dans ce document.

  • Les modèles Machine Learning sont largement incapables de faire la distinction entre une entrée malveillante et des données anormales bénignes. Une source importante de données d’apprentissage est dérivée de jeux de données publics non évalués, non modérés, ouverts à 3 contributions tierces. Les attaquants n’ont pas besoin de compromettre les jeux de données lorsqu’ils sont libres de les contribuer. Au fil du temps, les données malveillantes à faible confiance deviennent des données approuvées à haut niveau de confiance, si la structure/la mise en forme des données reste correcte.

  • Étant donné le grand nombre de couches de classifieurs/neurones masqués qui peuvent être utilisés dans un modèle d’apprentissage profond, une trop grande confiance est placée sur la sortie des processus et algorithmes décisionnels IA/ML sans comprendre de manière critique la façon dont ces décisions ont été prises. Cet obscurcissement crée une incapacité à « montrer son travail » et rend difficile la défense des résultats de l'IA ou du ML lorsqu'ils sont remis en question.

  • L'IA ou le ML sont de plus en plus utilisés pour soutenir les processus décisionnels de grande valeur en médecine et dans d'autres secteurs où une mauvaise décision peut entraîner des blessures graves ou la mort. Le manque de capacités de rapport forensique en IA/ML empêche ces conclusions de grande valeur d'être défendables tant devant les tribunaux que devant l'opinion publique.

Les objectifs de ce document sont de mettre en évidence (1) les problèmes d’ingénierie de sécurité, qui sont propres à l’espace IA/ML, (2) surfacent quelques réflexions initiales et des observations sur les menaces émergentes et (3) partagent des idées précoces sur la correction potentielle. Certains des défis mentionnés dans ce document sont des problèmes que le secteur doit anticiper au cours des deux prochaines années, d'autres sont des problèmes que nous sommes déjà obligés de résoudre aujourd'hui. Sans examen approfondi des domaines abordés dans ce document, nous risquons que l’IA future devienne une boîte noire grâce à notre incapacité à faire confiance ou à comprendre (et modifier si nécessaire) les processus décisionnels de l’IA au niveau mathématique [7]. Du point de vue de la sécurité, cela signifie effectivement une perte de contrôle et un départ des principes directeurs de Microsoft sur l’intelligence artificielle [3, 7].

Nouveaux défis en matière d'ingénierie de sécurité

Les vecteurs d’attaque logicielle traditionnels sont toujours essentiels à traiter, mais ils ne fournissent pas une couverture suffisante dans le paysage des menaces IA/ML. Le secteur des technologies doit éviter de combattre les problèmes de la prochaine génération avec des solutions de la dernière génération en créant de nouvelles infrastructures et en adoptant de nouvelles approches qui répondent aux lacunes de la conception et du fonctionnement des services IA/ML :

  1. Comme nous le verrons plus loin, les bases du développement et des opérations sécurisées doivent intégrer les concepts de résilience et de discrétion lors de la protection de l'IA et des données sous son contrôle. Des pivots spécifiques à l'IA sont nécessaires dans les domaines de l'authentification, de la séparation des tâches, de la validation des entrées et de l'atténuation du déni de service. Sans investissements dans ces domaines, les services IA/ML continuent de lutter contre les adversaires de tous les niveaux de compétence.

  2. L'IA doit être capable de reconnaître les biais chez les autres, sans être biaisée dans ses propres interactions avec les humains. Pour ce faire, il est nécessaire d'avoir une compréhension collective et évolutive des biais, des stéréotypes, du jargon et d'autres constructions culturelles. Cette compréhension permet de protéger l’IA contre les attaques d’ingénierie sociale et de falsification de jeux de données. Un système correctement implémenté devient plus fort de ces attaques et peut partager sa compréhension étendue avec d’autres API.

  3. Les algorithmes de Apprentissage machine doivent être capables de discerner les données introduites par des événements « Black Swan » bénins [1] en rejetant les données d’entraînement avec un impact négatif sur les résultats. Sinon, les modèles d’apprentissage sont toujours sensibles aux jeux par des attaquants et des trolls.

  4. L'intelligence artificielle doit disposer de capacités forensiques intégrées. Cela permet aux entreprises de fournir aux clients la transparence et la responsabilité de leur IA, en s’assurant que ses actions ne sont pas seulement vérifiables correctes, mais également juridiquement défendables. Ces capacités fonctionnent également comme une forme précoce de « détection d'intrusion par IA », permettant aux ingénieurs de déterminer le moment exact où une décision a été prise par un classificateur, quelles données l'ont influencée et si ces données étaient fiables ou non. Les fonctionnalités de visualisation des données de ce domaine sont rapidement avancées et montrent la promesse d’aider les ingénieurs à identifier et à résoudre les causes racines de ces problèmes complexes [10].

  5. L'IA doit reconnaître et protéger les informations sensibles, même si les êtres humains ne les reconnaissent pas comme telles. La richesse de l'expérience des utilisateurs en matière d'IA nécessite de grandes quantités de données brutes sur lesquelles effectuer l'apprentissage. Il faut donc prévoir un « sur-partage » par les clients.

Chacun de ces domaines, y compris celui des menaces et des atténuations potentielles, est abordé en détail ci-dessous.

L'IA requiert de nouveaux pivots par rapport aux modèles traditionnels de conception sécurisée/d'opérations sécurisées : l'introduction de la résilience et de la discrétion

Les concepteurs d’IA doivent garantir la confidentialité, l’intégrité et la disponibilité des données sensibles, que le système d’intelligence artificielle est exempt de vulnérabilités connues et fournit des contrôles pour la protection, la détection et la réponse aux comportements malveillants contre le système ou les données de l’utilisateur.

Les méthodes traditionnelles de défense contre les attaques malveillantes ne fournissent pas la même couverture dans ce nouveau paradigme, où les attaques vocales/vidéo/image peuvent contourner les filtres et défenses actuels. De nouveaux aspects de la modélisation des menaces doivent être explorés afin d'empêcher de nouveaux abus d'exploiter notre IA. Cela va bien au-delà de l'identification de la surface d'attaque traditionnelle via le fuzzing ou la manipulation des entrées (ces attaques ont également leurs propres pivots spécifiques à l'IA). Cela requiert l'incorporation de scénarios uniques à l'espace IA/ML. Les expériences utilisateur de l'IA, telles que la voix, la vidéo et les gestes, sont essentielles. Les menaces associées à ces expériences n’ont pas été modélisées traditionnellement. Par exemple, le contenu vidéo est maintenant adapté pour induire des effets physiques. En outre, la recherche montre que les commandes d’attaque audio peuvent être conçues [9].

L'imprévisibilité, la créativité et la malveillance des criminels, des adversaires déterminés et des trolls nous obligent à inculquer à nos systèmes IA les valeurs de résilience et de discrétion :

Résilience : le système doit être en mesure d'identifier des comportements anormaux et d'empêcher la manipulation ou la contrainte en dehors des limites normales d'un comportement acceptable par rapport au système IA et à la tâche spécifique. Il s'agit de nouveaux types d'attaques spécifiques à l'espace IA/ML. Les systèmes doivent être conçus pour résister aux entrées qui, sans cela, seraient en contradiction avec les lois locales, l'éthique et les valeurs de la communauté et de ses créateurs. Cela signifie que vous devez fournir à l'IA la capacité de déterminer le moment où une interaction devient « hors script ». Pour ce faire, les méthodes suivantes pourraient être utilisées :

  1. Identifiez les utilisateurs individuels qui s’écartent des normes définies par les différents grands clusters d’utilisateurs similaires, par exemple, les utilisateurs qui semblent taper trop rapidement, répondre trop rapidement, ne pas dormir ou déclencher des parties du système autres utilisateurs ne le font pas.

  2. Identifier les modèles de comportement connus pour être des indicateurs d'intentions malveillantes en sondant les attaques et le début de la chaîne de destruction des intrusions dans les réseaux.

  3. Reconnaître à tout moment quand plusieurs utilisateurs agissent de manière coordonnée ; par exemple, plusieurs utilisateurs émettent tous les mêmes requêtes inexpliquées mais délibérément conçues, des pics soudains dans le nombre d’utilisateurs ou des pics soudains d’activation de parties spécifiques d’un système IA.

Les attaques de ce type doivent être prises en compte par exemple avec les attaques par déni de service, car l’IA peut nécessiter des correctifs de bogues et une réentraînement afin de ne pas tomber à nouveau pour les mêmes astuces. L’importance critique est la possibilité d’identifier l’intention malveillante en présence de contre-mesures telles que celles utilisées pour vaincre les API d’analyse des sentiments [4].

Discrétion : l'IA doit être un dépositaire responsable et digne de confiance de toute information à laquelle elle a accès. En tant qu’êtres humains, nous affectons sans aucun doute un certain niveau de confiance dans nos relations IA. À un moment donné, ces agents communiqueront avec d'autres agents ou d'autres êtres humains en notre nom. Nous devons pouvoir être sûrs qu'un système IA dispose de suffisamment de discrétion pour ne partager, sous une forme restreinte, que ce qu'il doit partager sur nous afin que d'autres agents puissent accomplir des tâches en son nom. En outre, plusieurs agents qui interagissent avec des données personnelles en notre nom ne doivent pas chacun avoir besoin d’un accès global. Tout scénario d'accès aux données impliquant plusieurs système IA ou agents de bot doit limiter la durée de vie de l'accès au minimum requis. Les utilisateurs doivent également pouvoir refuser les données et rejeter l'authentification d'agents à partir de sociétés ou de paramètres régionaux spécifiques, tout comme les navigateurs web permettent aujourd'hui de bloquer un site. La résolution de ce problème nécessite une nouvelle réflexion sur l'authentification entre agents et les privilèges d'accès aux données, comme les investissements réalisés dans les premières années du cloud computing pour l'authentification informatique des utilisateurs.

L'IA doit être capable de reconnaître les biais chez les autres, sans être elle-même biaisée

Si l'IA doit être équitable et inclusive, sans discrimination à l'encontre d'un groupe particulier d'individus ou de résultats valables, elle doit avoir une compréhension innée des biais pour y parvenir. Sans être formé pour reconnaître le biais, le trolling ou le sarcasm, l’IA peut être dupée par ceux qui cherchent des rires bon marché au mieux, ou causer des dommages aux clients au pire.

Pour atteindre ce niveau de sensibilisation, il faut que « de bonnes personnes enseignent de mauvaises choses à l'IA », car cela nécessite effectivement une compréhension globale et évolutive des biais culturels. L’IA doit être en mesure de reconnaître un utilisateur avec lequel il a eu des interactions négatives avec le passé et exercer une prudence appropriée, similaire à la façon dont les parents enseignent à leurs enfants d’être wary of strangers. La meilleure façon de procéder consiste à exposer soigneusement l'IA à des trolls de manière contrôlée/modérée/limitée. De cette façon, l'IA peut apprendre la différence entre un utilisateur inoffensif qui « tape dans les pneus » et une véritable malveillance ou un véritable trollage. Les trolls fournissent un précieux flux de données d'apprentissage pour l'IA, la rendant plus résistante aux futures attaques.

L'IA doit également être en mesure de reconnaître les biais dans les jeux de données sur lesquels elle effectuer son apprentissage. Cela peut être culturel ou régional, contenant le jargon utilisé par un groupe particulier de personnes, ou des sujets/points de vue présentant un intérêt spécifique pour un groupe. Comme avec les données d’apprentissage introduites malveillantment, l’IA doit être résiliente aux effets de ces données sur ses propres inférences et déductions. Il s'agit essentiellement d'un problème sophistiqué de validation d'entrée, avec des similitudes au niveau de la vérification des limites. Au lieu de traiter les longueurs de mémoire tampon et les décalages, la mémoire tampon et les contrôles de limites sont des mots marqués d'un indicateur rouge provenant d'un large éventail de sources. L'historique de la conversation et le contexte dans lequel les mots sont utilisés sont également essentiels. Tout comme les pratiques de défense en profondeur sont utilisées pour superposer des protections sur une API front-end de service web traditionnel, plusieurs couches de protection doivent être exploitées dans les techniques de reconnaissance et d'élimination des biais.

Les algorithmes de Apprentissage machine doivent être capables de distinguer les données introduites par des événements « Black Swan » bénins

De nombreux livre blancs sont publiés sur le potentiel théorique du modèle ML/classifieur de falsification et d’extraction/vol à partir de services où les attaquants ont accès à la fois au jeu de données d’entraînement et à une compréhension informée du modèle en cours d’utilisation [2, 3, 6, 7]. Le problème de sur-arching est que tous les classifieurs ML peuvent être trompés par un attaquant qui contrôle les données du jeu d’entraînement. Les attaquants n'ont même pas besoin de pouvoir modifier les données existantes du jeu d'apprentissage, ils doivent juste pouvoir les compléter et voir leurs entrées devenir « fiables » au fil du temps grâce à l'incapacité du classificateur ML à discerner les données malveillantes des véritables données anormales.

Ce problème de chaîne d'approvisionnement des données d'apprentissage nous amène au concept d'« intégrité de la décision » : la capacité d'identifier et de rejeter les données d'apprentissage ou les entrées utilisateur introduites de manière malveillante avant qu'elles aient un impact négatif sur le comportement du classificateur. La raison en est que les données d’apprentissage fiables ont une probabilité plus élevée de générer des résultats/décisions dignes de confiance. Bien qu’il soit toujours essentiel d’effectuer l’apprentissage et d’être résilient aux données non approuvées, la nature malveillante de ces données doit être analysée avant de faire partie d’un corps de données d’entraînement à haut niveau de confiance. Sans de telles mesures, l'IA pourrait être contrainte de réagir de façon excessive au trollage et de refuser le service aux utilisateurs légitimes.

Cela est particulièrement préoccupant lorsque des algorithmes d'apprentissage non supervisés sont formés sur des jeux de données non traités ou non fiables. Cela signifie que les attaquants peuvent introduire toutes les données qu'ils souhaitent, à condition que le format soit valide et que l'algorithme soit formé sur celui-ci, rendant ainsi ce point de données fiable au même titre que le reste du jeu d'apprentissage. SI l'attaquant crée suffisamment d'entrées, l'algorithme d'apprentissage perd la capacité de discerner le bruit et les anomalies des données de confiance élevée.

Comme exemple de cette menace, imaginez une base de données de panneaux stop dans le monde entier, dans toutes les langues. Cela serait extrêmement difficile à organiser en raison du nombre d'images et de langues impliquées. Une contribution malveillante à ce jeu de données passerait largement inaperçue jusqu'à ce que les voitures autonomes ne reconnaissent plus les panneaux stop. Les atténuations de la résilience des données et de l’intégrité des décisions doivent travailler main dans la main ici pour identifier et éliminer les dommages d’entraînement causés par des données malveillantes afin de l’empêcher de devenir une partie essentielle du modèle d’apprentissage.

L'intelligence artificielle doit disposer d'un système intégré de forensique et de journalisation de la sécurité pour assurer la transparence et la responsabilité

À terme, l'IA sera capable d'agir à titre professionnel en tant qu'agent pour notre compte, nous aidant à prendre des décisions à fort impact. Par exemple, il peut s’agir d’une IA qui aide le traitement des transactions financières. Si l’IA est exploitée et que les transactions sont manipulées d’une certaine manière, les conséquences peuvent aller de l’individu au système. Dans les scénarios à valeur élevée, l’IA a besoin d’une journalisation légale et de sécurité appropriée pour assurer l’intégrité, la transparence, la responsabilité et, dans certains cas, des preuves où la responsabilité civile ou pénale peut survenir.

Les services IA essentiels ont besoin d’installations d’audit/de suivi d’événements au niveau de l’algorithme, où les développeurs peuvent examiner l’état enregistré de classifieurs spécifiques, ce qui peut avoir conduit à une décision inexacte. Cette capacité est nécessaire à l'échelle du secteur afin de prouver la justesse et la transparence des décisions générées par l'IA chaque fois qu'elles sont remises en question.

Les fonctions de traçage d'événements peuvent commencer par la corrélation des informations décisionnelles de base, telles que :

  1. La période pendant laquelle le dernier événement d'apprentissage s'est produit

  2. L'horodatage de l'entrée la plus récente du jeu de données sur laquelle l'apprentissage s'est effectué

  3. Les poids et les niveaux de confiance des principaux classificateurs utilisés pour parvenir à des décisions à fort impact

  4. Les classificateurs ou les composants impliqués dans la décision

  5. La décision finale de grande valeur prise par l'algorithme

Ce suivi est trop adapté à la plupart des décisions assistées par algorithme. Toutefois, avoir la possibilité d’identifier les points de données et les métadonnées d’algorithme menant à des résultats spécifiques sont des avantages importants dans la prise de décision à valeur élevée. Ces fonctionnalités démontrent non seulement la fiabilité et l’intégrité par le biais de la capacité de l’algorithme à « montrer son travail », mais ces données peuvent également être utilisées pour le réglage précis.

Une autre capacité forensique nécessaire en IA/ML est la détection des falsifications. Tout comme nous avons besoin que nos systèmes IA reconnaissent les biais et n'y soient pas sensibles, nous devrions disposer de capacités forensiques pour aider nos ingénieurs à détecter de telles attaques et à y répondre. Ces fonctionnalités d’investigation sont d’une grande valeur lorsqu’elles sont associées à des techniques de visualisation des données [10] permettant l’audit, le débogage et le réglage des algorithmes pour obtenir des résultats plus efficaces.

L'IA doit protéger les informations sensibles, même si les humains ne le font pas

Les expériences riches requièrent des données riches. Les humains fournissent déjà volontairement de grandes quantités de données sur lesquelles le ML peut s'entraîner. Cela va du banal contenu de la file d'attente des vidéos en streaming aux tendances des achats par carte de crédit et des historiques de transactions utilisées pour détecter les fraudes. L’IA doit avoir un sentiment de discrétion ancré lorsqu’il s’agit de gérer les données utilisateur, toujours agir pour la protéger même lorsqu’elle est volontaire librement par un public de sur-partage.

Comme une IA peut avoir un groupe authentifié de « pairs » avec qui elle communique afin d'accomplir des tâches complexes, elle doit également reconnaître la nécessité de restreindre les données qu'elle partage avec ces pairs.

Premières observations sur les questions de sécurité de l'IA

Malgré l’état naissant de ce projet, nous pensons que les preuves compilées à ce jour montrent une enquête approfondie sur chacun des domaines ci-dessous est essentielle pour déplacer notre industrie vers des produits/services IA/ML plus fiables et sécurisés. Voici nos premières observations et réflexions sur ce que nous aimerions voir réalisé dans cet espace.

  1. Des organismes de contrôle de la sécurité et des tests d'intrusion axés sur l'IA/ML pourraient être créés pour garantir que nos futurs systèmes IA partagent nos valeurs et s'alignent sur les principes d'IA d'Asilomar.

    1. Un tel groupe pourrait également développer des outils et des infrastructures qui pourraient être utilisés par l'ensemble du secteur pour l'aider à sécuriser ses services IA/ML.
    2. Avec le temps, cette expertise s'accumulera au sein des groupes d'ingénierie de façon organique, comme ce fut le cas pour l'expertise traditionnelle en matière de sécurité au cours des dix dernières années.
  2. Des formations pourraient être développées afin de permettre aux entreprises d'atteindre des objectifs tels que la démocratisation de l'IA tout en atténuant les difficultés évoquées dans ce document.

    1. La formation à la sécurité spécifique à l'IA garantit que les ingénieurs sont conscients des risques auxquels leur système IA est exposé et des ressources à leur disposition. Ce matériel doit être fourni avec une formation actuelle sur la protection des données client.
    2. Cela pourrait être réalisé sans exiger de chaque scientifique des données qu'il devienne un expert en sécurité. L'accent est plutôt mis sur la formation des développeurs à la résilience et à la discrétion appliquées à leurs cas d'usage de l'IA.
    3. Les développeurs devront comprendre les « blocs de construction » sécurisés des services IA réutilisés dans leur entreprise. Il faudra mettre l’accent sur la conception à tolérance de panne avec les sous-systèmes, qui peuvent être facilement désactivés (par exemple, processeurs d’images, analyseurs de texte).
  3. Les classificateurs ML et leurs algorithmes sous-jacents pourraient être renforcés et capables de détecter des données d'apprentissage malveillantes sans qu'elles ne contaminent les données d'apprentissage valides en cours d'utilisation ou ne faussent les résultats.

    1. Les techniques telles que Reject on Negative Input [5] nécessitent des cycles de chercheurs pour étudier.

    2. Ce travail implique la vérification mathématique, la preuve de concept dans le code et le test des données anormales malveillantes et bénignes.

    3. La vérification et la modération par l'homme peuvent être bénéfiques ici, en particulier lorsque des anomalies statistiques sont présentes.

    4. Des « classificateurs de surveillance » pourraient être conçus afin d'avoir une compréhension plus universelle des menaces sur plusieurs systèmes IA. Cela améliore considérablement la sécurité du système, car l'attaquant ne peut plus exfiltrer un modèle particulier.

    5. Les IA pourraient être liées entre elles afin d'identifier les menaces dans les systèmes des unes et des autres

  4. Il est possible de créer une bibliothèque centralisée d'audit et de forensique de ML qui établit une norme pour la transparence et la crédibilité de l'IA.

    1. Des capacités d'interrogation pourraient également être mises en place pour l'audit et la reconstruction des décisions à fort impact commercial par l'IA.
  5. Le jargon utilisé par les adversaires dans les différents groupes culturels et les réseaux sociaux pourrait être continuellement inventorié et analysé par l'IA afin de détecter et de répondre au trollage, au sarcasme, etc.

    1. Les IA doivent être résilientes face à toutes sortes de jargon, qu'il soit technique, régional ou spécifique à un forum.

    2. Ce corps de connaissances peut également être utilisé dans l’automatisation du filtrage/étiquetage/blocage de contenu pour résoudre les problèmes d’extensibilité du modérateur.

    3. Cette base de données mondiale de termes pourrait être hébergée dans des bibliothèques de développement ou même exposée via des API de service cloud pour être réutilisée par différentes IA, garantissant que les nouvelles IA bénéficient de la sagesse combinée des anciennes.

  6. Une « infrastructure de fuzzing de Machine Learning » pourrait être créé, qui permettrait aux ingénieurs d'injecter différents types d'attaques dans des jeux d'apprentissage de test afin que l'IA puisse les évaluer.

    1. Cela peut se concentrer non seulement sur le texte vernaculaire, mais les données d’image, de voix et de mouvement et les permutations de ces types de données.

Conclusion

Les principes d'IA d'Asilomar illustrent la complexité de la mise en œuvre de l'IA d'une manière qui bénéficie constamment à l'humanité. Les futures API doivent interagir avec d’autres API pour offrir des expériences utilisateur riches et attrayantes. Cela signifie qu’il n’est tout simplement pas assez bon pour Que Microsoft « bénéficie de l’INTELLIGENCE artificielle » du point de vue de la sécurité – le monde doit le faire . Nous avons besoin de l’alignement de l’industrie et de la collaboration avec une plus grande visibilité des questions de ce document d’une manière similaire à notre poussée mondiale pour une Convention numérique de Genève [8]. En répondant aux problèmes présentés ici, nous pouvons commencer à guider nos clients et nos partenaires du secteur dans une voie où l'IA est véritablement démocratisée et augmente l'intelligence de toute l'humanité.

Bibliographie

[1] Taleb, Nassim Nicholas (2007), The Black Swan: The Impact of the Highly Improbable, Random House, ISBN 978-1400063512

[2] Florian Tramèr, Fan Zhang, Ari Juels, Michael K. Reiter, Thomas Ristenpart,Stealing Machine Learning Models via Prediction APIs

[3] Satya Nadella :Le partenariat de l’avenir

[4] Claburn, Thomas :Google troll-destroying AI ne peut pas faire face aux fautes de frappe

Marco Barreno, Blaine Nelson, Anthony D. Joseph, J.D. Tygar : La sécurité du Machine Learning

[6] Wolchover, Natalie :This Artificial Intelligence Pioneer a quelques préoccupations

Conn, Ariel : Comment aligner l’intelligence artificielle avec les valeurs humaines ?

Smith, Brad : La nécessité d’une action collective urgente pour protéger les gens en ligne : Leçons de la cyber-attaque de la semaine dernière

[9] Nicholas Carlini, Pratyush Mishra, Tavish Vaidya, Yuankai Zhang, Micah Sherr, Clay Shields, David Wagner, Wenchao Zhou :Hidden Voice Commands

[10] Fernanda Viégas, Martin Wattenberg, Daniel Smilkov, James Wexler, Jimbo Wilson, Nikhil Thorat, Charles Nicholson, Google Research :Big Picture