FAQ sur l’IAR

Qu’est-ce que Microsoft Copilot pour la sécurité ? 

Copilot pour la sécurité est un outil d’analyse de la sécurité basé sur l’IA en langage naturel qui aide les professionnels de la sécurité à répondre rapidement aux menaces, à traiter les signaux à la vitesse de la machine et à évaluer l’exposition aux risques en quelques minutes. Il tire le contexte des plug-ins et des données pour répondre aux invites liées à la sécurité afin que les professionnels de la sécurité puissent aider à assurer la sécurité de leur organisation. Les utilisateurs peuvent collecter les réponses de Copilot pour la sécurité qu’ils trouvent utiles et les épingler au tableau pour référence ultérieure.

Que peut faire Copilot pour la sécurité ? 

Copilot pour la sécurité apporte toute la puissance de l’architecture OpenAI et l’associe à des modèles spécifiques à la sécurité développés par l’expertise de pointe de Microsoft Security, le renseignement sur les menaces mondial et les produits de sécurité complets. Copilot pour la sécurité aide les professionnels de la sécurité à mieux détecter les menaces, renforcer les défenses et répondre plus rapidement aux incidents de sécurité.

Microsoft Copilot pour la sécurité contribue à renforcer les opérations de sécurité en :

  • Détectant des vulnérabilités, hiérarchisant les risques et en offrant des recommandations guidées pour la prévention et la correction des menaces

  • Exposant les incidents, évaluant leur échelle et en offrant des recommandations pour les étapes de correction

  • Récapitulant des événements, des incidents et des menaces et en créant des rapports personnalisables

  • Aidant les professionnels de la sécurité à collaborer grâce à des fonctionnalités intégrées

Quelle est l’utilisation prévue pour Microsoft Copilot pour la sécurité ? 

Copilot pour la sécurité est conçu pour aider les analystes de sécurité à examiner et résoudre les incidents, à synthétiser et à expliquer les événements de sécurité, et à partager les résultats avec les parties prenantes.  

Comment Copilot pour la sécurité a-t-il été évalué ? Quelles métriques sont utilisées pour mesurer les performances ? 

Copilot pour la sécurité a été soumis à une phase de tests intense avant d’être mis sur le marché. Les tests comprenaient l’exercice de sécurité « red teaming », qui consiste à tester rigoureusement le produit pour identifier les modes et scénarios d’échec susceptibles d’amener Copilot pour la sécurité à faire ou à dire des choses en dehors de ses utilisations prévues ou incompatibles avec les principes de Microsoft AI.

Maintenant qu’il est disponible, les commentaires des utilisateurs sont essentiels pour aider Microsoft à améliorer le système. Vous avez la possibilité de fournir des commentaires à chaque contribution de Copilot pour la sécurité. Lorsqu’une réponse est inexacte, incomplète ou peu claire, utilisez les boutons « Hors cible » et « Rapport » pour signaler toute sortie répréhensible. Vous pouvez également confirmer que les réponses sont utiles et précises à l’aide du bouton « Confirmer ». Ces boutons apparaissent en bas de chaque réponse Copilot pour la sécurité et vos commentaires sont directement envoyés à Microsoft pour nous aider à améliorer les performances de la plateforme.

Quelles sont les limitations de Copilot pour la sécurité ? Comment les utilisateurs peuvent-ils réduire l’impact des limitations de Microsoft Copilot pour la sécurité lors de l’utilisation du système ? 

  • Le programme d’accès anticipé est conçu pour permettre aux clients d’accéder en avant-première à Copilot pour la sécurité et de fournir des commentaires sur la plateforme. Les fonctionnalités en préversion ne sont pas destinées à une utilisation en production et peuvent avoir des fonctionnalités limitées. 

  • Comme toute technologie basée sur l’IA, il arrive à Copilot pour la sécurité de faire des erreurs. Toutefois, vous pouvez contribuer à améliorer ses réponses en fournissant vos observations à l’aide de l’outil de commentaires, intégré à la plateforme.  

  • Le système peut générer des réponses obsolètes s’il ne reçoit pas les données les plus actuelles par le biais d’entrées utilisateur ou de plug-ins. Pour obtenir les meilleurs résultats, vérifiez que les plug-ins appropriés sont activés.

  • Le système est conçu pour répondre aux prompts relatives au domaine de la sécurité, telles que l’examen des incidents et la cyberveille. Les prompts débordant du domaine de la sécurité peuvent entraîner des réponses qui manquent de précision et d’exhaustivité.

  • Il se peut que Copilot pour la sécurité génère du code ou inclue du code dans les réponses, ce qui pourrait exposer des informations ou des vulnérabilités sensibles s’il n’était pas utilisé avec soin. Les réponses peuvent sembler valides, mais peuvent ne pas être sémantiquement ou syntaxiquement correctes ou ne pas refléter précisément l’intention du développeur. Les utilisateurs doivent toujours prendre les mêmes précautions qu’avec tout code qu’ils écrivent qui utilise des éléments dont ils ne sont pas eux-mêmes à l’origine, y compris des précautions pour garantir leur adéquation. Il s’agit notamment de tests rigoureux, d’analyse IP et de vérification des failles de sécurité.

  • Correspondance avec le code public : Copilot pour la sécurité est capable de générer un nouveau code, ce qu’il fait de manière probabiliste. Bien que la probabilité qu’il produise du code qui corresponde au code du jeu de formation est faible, il se peut qu’une suggestion Copilot pour la sécurité contienne des extraits de code qui correspondent au code du jeu de formation. Les utilisateurs doivent toujours prendre les mêmes précautions qu’avec n’importe quel code qu’ils écrivent qui utilise du matériel dont les développeurs ne sont pas à l’origine, y compris des précautions pour garantir leur adéquation. Il s’agit notamment de tests rigoureux, d’analyse IP et de vérification des failles de sécurité.

  • Il se peut que le système ne soit pas en mesure de traiter de longues prompts, telles que celles constituées de centaines de milliers de caractères.

  • L’utilisation de la plateforme peut être soumise à des limites d’utilisation ou à une limitation de capacité. Même avec des prompts plus courtes, le choix d’un plug-in, l’exécution d’appels d’API, la génération de réponses et leur vérification avant de les afficher à l’utilisateur peuvent prendre du temps (jusqu’à plusieurs minutes) et nécessiter une capacité GPU élevée. 

  • Pour minimiser les erreurs, il est recommandé aux utilisateurs de suivre les instructions de génération de prompts

Quels sont les facteurs opérationnels et les paramètres qui permettent une utilisation efficace et responsable de Copilot pour la sécurité ? 

  • Vous pouvez utiliser des mots de tous les jours pour décrire ce que vous aimeriez que Copilot pour la sécurité fasse. Par exemple :

    • « Parlez-moi de mes derniers incidents » ou « Résumez cet incident ».
  • Lorsque le système génère la réponse, vous commencez à voir les étapes qu’il effectue dans le journal des processus, ce qui donne la possibilité de vérifier ses processus et ses sources.  

  • À tout moment pendant la formation de la prompt, vous pouvez annuler, modifier, réexécuter ou supprimer une prompt. 

  • Vous pouvez fournir des commentaires sur la qualité d’une réponse, y compris signaler tout ce qui n’est pas acceptable à Microsoft. 

  • Les réponses peuvent être épinglées, partagées et exportées, ce qui permet aux professionnels de la sécurité de collaborer et de partager des observations. 

  • Les administrateurs contrôlent les plug-ins qui se connectent à Copilot pour la sécurité.   

  • Vous pouvez choisir, personnaliser et gérer les plug-ins qui fonctionnent avec Copilot pour la sécurité.

  • Copilot pour la sécurité a créé des séquences de prompts, qui sont un groupe de prompts qui s’exécutent en séquence pour terminer un flux de travail spécifique.

Quelle est l’approche de Microsoft en matière d’IAR appliquée à Copilot pour la sécurité ?

Chez Microsoft, nous prenons au sérieux notre engagement en faveur de l’IAR. Copilot pour la sécurité est développé conformément à nos principes IA. Nous travaillons avec OpenAI pour offrir une expérience qui encourage une utilisation responsable. Par exemple, nous avons collaboré et continuerons à collaborer avec OpenAI sur le travail de modèle fondamental. Nous avons conçu l’expérience utilisateur Copilot pour la sécurité de telle sorte à ce que les humains restent au centre. Nous avons développé un système de sécurité conçu pour atténuer les défaillances et empêcher toute utilisation abusive avec des éléments tels que l’annotation de contenu dangereux, la surveillance opérationnelle et d’autres dispositifs de protection. Le programme d’accès anticipé sur invitation uniquement fait également partie de notre approche de l’IAR. Nous prenons les commentaires des utilisateurs disposant d’un accès anticipé à Copilot pour la sécurité pour améliorer l’outil avant de le rendre largement disponible.

L’IAR est un parcours, et nous améliorerons continuellement nos systèmes en cours de route. Nous nous engageons à rendre notre IA plus stable et fiable, et vos commentaires nous y aideront.

Êtes-vous en conformité avec la loi européenne sur l’IA ?

Nous nous engageons à respecter la loi européenne sur l’IA. Notre effort sur plusieurs années pour définir, faire évoluer et implémenter notre norme d’IAR et notre gouvernance interne a renforcé notre préparation.

Chez Microsoft, nous reconnaissons l’importance de la conformité réglementaire en tant que pierre angulaire de la confiance et de la fiabilité dans les technologies d’IA. Nous nous engageons à créer une IA responsable par conception. Notre objectif est de développer et de déployer une IA qui aura un impact bénéfique sur la société et gagnera sa confiance.

Notre travail est guidé par un ensemble de principes fondamentaux : l’équité, la fiabilité et la sécurité, la confidentialité, l’inclusion, la transparence et la responsabilité. La norme d’IA responsable de Microsoft prend ces six principes et les décompose en objectifs et exigences pour l’IA que nous mettons à disposition.

Notre norme d’IAR prend en compte les propositions réglementaires et leur évolution, y compris la proposition initiale de la loi européenne sur l’IA. Nous avons développé nos produits et services les plus récents dans l’espace IA, tels que Microsoft Copilot et le service OpenAI Microsoft Azure conformément à notre norme IAR. Dans la mesure où les exigences finales de la loi sur l’IA de l’UE sont définies plus en détail, nous sommes impatients de travailler avec les décideurs pour garantir l’implémentation et l’application possibles des règles, pour démontrer notre conformité et pour collaborer avec nos clients et d’autres parties prenantes afin de soutenir la conformité dans l’écosystème.