Microsoft Copilot pour la sécurité forum aux questions

Informations générales

Qu’est-ce que Microsoft Copilot pour la sécurité ?

Microsoft Copilot pour la sécurité est un produit de cybersécurité IA qui permet aux professionnels de la sécurité de répondre rapidement aux menaces, de traiter les signaux à la vitesse de la machine et d’évaluer l’exposition aux risques en quelques minutes. 

En quoi Microsoft Copilot pour la sécurité est-il différent des autres produits de sécurité IA ?

Copilot pour la sécurité combine des modèles GPT4 avancés d’OpenAI avec tout ce que Microsoft apporte à la table, notamment l’infrastructure hyperscale, l’orchestration spécifique à la cybersécurité, l’expertise unique de Microsoft Security, le renseignement mondial sur les menaces et les produits de sécurité complets.

Il s’agit actuellement de la seule solution ia de sécurité créée à l’aide de la relation unique de Microsoft avec OpenAI, ce qui permet aux clients d’accéder aux modèles de langage volumineux (LLM) les plus récents et les plus avancés et à l’infrastructure d’IA hyperscale de Microsoft.

Microsoft est dans une position unique pour transformer la sécurité de nos clients, non seulement en raison de nos investissements dans l’IA, mais aussi parce que nous offrons la sécurité de bout en bout, l’identité, la conformité et bien plus encore dans notre portefeuille. Nous sommes optimisés pour couvrir davantage de vecteurs de menaces et fournir de la valeur avec une expérience coordonnée.

Quels sont les cas d’usage et les fonctionnalités que Copilot pour la sécurité déverrouillent pour les clients ?

Les cas d’usage héros sont des scénarios SOC, en particulier autour du résumé des incidents, de l’analyse d’impact, de l’ingénierie inverse des scripts et des réponses guidées.

Est-ce que Microsoft Copilot pour la sécurité fonctionne avec d’autres produits Microsoft ?

Oui. Copilot pour la sécurité fonctionne avec d’autres produits Microsoft Security. Ces produits incluent, mais ne sont pas limités à :

  • Microsoft Defender XDR,
  • Microsoft Sentinel,
  • Microsoft Intune,
  • Microsoft Defender Threat Intelligence,
  • Microsoft Purview
  • gestion de la surface d’attaque Microsoft Defender

Copilot pour la sécurité pouvez accéder aux données de ces produits et fournir une expérience Copilot d’assistance pour augmenter l’efficacité et l’efficacité des professionnels de la sécurité qui utilisent ces solutions. Par exemple, des fonctionnalités telles que l’analyse de script permettent aux clients d’analyser des centaines de lignes de code et de les interpréter en langage naturel en quelques minutes. Cette capacité dépasse considérablement les compétences d’analystes avancées en termes de vitesse et d’expertise. Copilot pour la sécurité aide les professionnels de la sécurité à découvrir les risques plus tôt, à y répondre avec des conseils plus approfondis et à rester au fait des vulnérabilités dans le paysage des menaces en constante évolution.

Comment Copilot pour la sécurité améliorer Microsoft Defender XDR et Microsoft Sentinel ?

Microsoft Defender XDR et Microsoft Sentinel deviennent encore plus puissants lorsque les professionnels de la sécurité utilisent Copilot pour la sécurité. Copilot pour la sécurité offre une expérience qui enrichit et s’appuie sur les données de sécurité, les signaux et les incidents et insights existants provenant de Microsoft Defender XDR et de Microsoft Sentinel. La nouvelle expérience incorporée dans Microsoft Defender XDR surcharge les équipes de sécurité avec des fonctionnalités d’IA génératives pour porter leur efficacité à un nouveau niveau pour l’ensemble suivant de cas d’usage puissants :

  • Répondre aux menaces à la vitesse de l’IA grâce à une investigation et une réponse assistées aux incidents. Avec l’expérience incorporée dans Defender, Copilot pour la sécurité fournit des résumés des incidents actifs et des instructions pas à pas exploitables pour la réponse aux incidents, en créant une activité post-réponse complète, le tout en quelques secondes et en un clic sur un bouton.

  • Mettez à l’échelle les tâches avancées à tous les niveaux de compétence. Copilot pour la sécurité permet aux défenseurs de tous les niveaux de compétence de détecter facilement les menaces et les vulnérabilités sur plusieurs vecteurs de menaces. La solution fonctionne en temps réel entre les données de sécurité et offre un moyen accessible d’effectuer des tâches avancées à l’aide du langage naturel.

  • Effectuez une analyse de code malveillant en temps réel. Auparavant, l’analyse des programmes malveillants et l’ingénierie inverse étaient limitées aux répondeurs avancés. Avec Copilot pour la sécurité, les clients peuvent analyser des scripts de ligne de commande complexes et les traduire en langage naturel facilement compréhensible pour aider les analystes à comprendre les actions et les motivations des attaquants.

  • Appliquez facilement le renseignement sur les menaces dans vos workflows d’investigation. Avec Copilot pour la sécurité, les utilisateurs peuvent obtenir des insights structurés et contextualisés sur les menaces émergentes, les techniques d’attaque et si un organization est exposé à une menace spécifique. Copilot pour la sécurité permet d’éviter l’exposition aux campagnes de groupes d’activités et de répondre aux incidents avec des conseils plus importants.

Est-ce que Copilot pour la sécurité remplace Microsoft Defender XDR et Microsoft Sentinel ?

Non, Copilot pour la sécurité ne remplace pas Microsoft Defender XDR ou Microsoft Sentinel. Copilot pour la sécurité aide les professionnels de la sécurité dans leur travail quotidien, en leur offrant une expérience de perfectionnement professionnel et une efficacité accrue. Il ajoute une valeur ajoutée par rapport à Microsoft Defender XDR et Microsoft Sentinel.

Est-ce que Copilot pour la sécurité inclut l’accès à Microsoft Defender Threat Intelligence (Defender TI) ?

Oui*. Lorsque vous y êtes invité, Copilot pour la sécurité raisons sur l’ensemble du contenu et des données dans Microsoft Defender Threat Intelligence (Defender TI) pour retourner un contexte crucial autour des groupes d’activités, des outils et des vulnérabilités. Les clients disposent également d’un accès Workbench Premium Defender TI au niveau du locataire, ce qui leur permet d’accéder à l’ensemble des informations de Defender TI (profils Intel, analyse des menaces, jeux de données Internet, etc.) pour approfondir le contenu exposé dans Copilot pour la sécurité.

*Cet accès n’inclut pas l’API Defender TI, qui reste sous licence séparément.

Quand Copilot pour la sécurité est-il mis à la disposition générale ?

Copilot pour la sécurité seront généralement disponibles à l’achat le 1er avril 2024.

Qui sont les utilisateurs prévus de Copilot pour la sécurité ?

Les analystes SOC, les analystes de conformité et les administrateurs informatiques sont les utilisateurs prévus de Copilot pour la sécurité.

Quelles sont les langues prises en charge ?

Copilot pour la sécurité prend en charge plusieurs langues. Le modèle est disponible en huit langues* et l’expérience utilisateur est disponible en 25 langues.**

*Modèle : anglais, allemand, japonais, espagnol, Français, italien, portugais et chinois

**Expérience utilisateur : langues ci-dessus, ainsi que le coréen, le néerlandais, le suédois, le polonais, le norvégien, le turc, le danois, le finnois, etc. dans l’expérience utilisateur.

Pour plus d’informations, consultez Langues prises en charge.

Les clients du programme d’accès anticipé (EAP) recevront-ils des fonctionnalités en disponibilité générale le 1er avril et d’autres fonctionnalités ajoutées avant la fin de leur contrat EAP ?

Oui, les clients EAP recevront les fonctionnalités qui se trouvent dans le produit en disponibilité générale et toutes les autres mises à jour de fonctionnalités qui se produisent pendant la durée de leur contrat EAP.

Qu’advient-il des clients qui participent au programme d’accès anticipé en disponibilité générale ?

L’accès client dans le cadre du programme d’accès anticipé prendra fin six mois après sa date d’achat. Les conditions contractuelles applicables à l’utilisation et à la consommation du produit par les clients dans le cadre du programme d’accès anticipé s’appliquent pendant cette période. Après ce délai et après la disponibilité générale, Copilot of Security sera disponible à l’achat et à la consommation dans le cadre des canaux de contrat standard de Microsoft. Un plan de migration est en place pour prendre en charge les clients qui migrent d’EAP vers GA afin de s’assurer que toutes leurs informations sont transmises au produit en disponibilité générale.

Lorsqu’un client EAP décide d’acheter le produit en disponibilité générale dans les 90 jours suivant son expiration, les données client restent disponibles.

Si un client EAP décide de ne pas acheter le produit en disponibilité générale dans les 90 jours suivant son expiration, ses données client EAP sont supprimées conformément à nos stratégies de conservation des données.

Les données client sont-elles utilisées pour entraîner les modèles de base du service Azure OpenAI ?

Non, les données client ne sont pas utilisées pour entraîner les modèles de base du service Azure OpenAI, et cet engagement est documenté dans nos Conditions du produit. Pour plus d’informations sur le partage de données dans le contexte de Copilot pour la sécurité, consultez Confidentialité et sécurité des données.

Qu’est-ce que le RGPD pour les marchés de l’UE ?

Microsoft se conforme à toutes les lois et réglementations applicables à la fourniture des produits et services, y compris la loi sur la notification des violations de sécurité et les exigences de protection des données (telles que définies dans le DPA Microsoft). Toutefois, Microsoft n’est pas responsable de la conformité aux lois ou réglementations applicables au client ou au secteur d’activité du client qui ne sont généralement pas applicables aux fournisseurs de services de technologie de l’information. Microsoft ne détermine pas si les données du client incluent des informations soumises à une loi ou à une réglementation spécifique. Pour plus d’informations, consultez Addenda à la protection des données (DPA) des produits et services Microsoft.

Les clients us Government Cloud (GCC) sont-ils éligibles ?

GCC n’est pas disponible en disponibilité générale. Pour le moment, Copilot pour la sécurité n’est pas conçu pour une utilisation par les clients avec les clouds du gouvernement des États-Unis, y compris, mais sans s’y limiter, GCC High, DoD et Microsoft Azure Government. Bien que le chemin technique du connecteur Microsoft Sentinel fonctionne, le locataire ne peut pas accéder à 75 % des fonctionnalités du produit, car les interfaces et les données Defender résident dans Microsoft Azure Government, auquel Copilot n’est pas intégré.

Les clients des soins de santé aux États-Unis et au Canada sont-ils admissibles ?

Les clients HLS des États-Unis et du Canada sont éligibles à l’achat de Copilot pour la sécurité. Toutefois, Copilot pour la sécurité n’est actuellement pas un service BAA-Scope Microsoft.

Quelle est la différence entre ChatGPT et Copilot pour la sécurité ?

ChatGPT et Copilot pour la sécurité sont des technologies d’intelligence artificielle (IA) développées dans le but d’aider les utilisateurs à accomplir des tâches et des activités plus rapidement et plus efficacement. Bien qu’ils puissent sembler similaires, il existe des différences significatives entre les deux.

ChatGPT est une technologie de traitement du langage naturel. ChatGPT utilise le Machine Learning, le Deep Learning, la compréhension du langage naturel et la génération de langage naturel pour répondre aux questions ou aux conversations. ChatGPT fonctionne à partir de données entraînées à partir d’Internet, utilise les invites des utilisateurs pour faciliter l’ingénierie rapide et les ajustements de modèle, et est limité à trois plug-ins simultanés.

Copilot pour la sécurité est un outil d’analyse de la sécurité basé sur l’IA en langage naturel conçu pour aider les organisations à se défendre contre les menaces à la vitesse et à l’échelle de la machine. Copilot pour la sécurité est basé sur la technologie OpenAI et est conçu et conçu en tant qu’ia informatique d’entreprise de bout en bout. La plateforme fonctionne à partir des plug-ins connectés au client et du renseignement mondial sur les menaces de Microsoft en tant que données de base. Les invites entrées n’informent pas le modèle ou invitent l’ingénierie, sauf si elles sont soumises par le client pour révision.

L’une des principales différences entre ChatGPT et Copilot pour la sécurité est ce que les systèmes sont conçus pour accomplir. Microsoft Copilot pour la sécurité est conçu pour la gestion de la posture, la réponse aux incidents et la création de rapports. La solution tire des insights à partir de signaux de sécurité agrégés à partir de plug-ins, tandis que ChatGPT fonctionne comme un chatbot conçu pour tenir une conversation avec un utilisateur.

Copilot pour la sécurité a accès à des informations à jour à partir du renseignement sur les menaces et tire des insights des plug-ins afin que les professionnels de la sécurité soient mieux équipés pour se défendre contre les menaces. Microsoft Copilot pour la sécurité n’est pas toujours correct et comme avec tous les outils d’IA, les réponses peuvent contenir des erreurs. Le mécanisme de commentaires intégré permet aux utilisateurs de contrôler l’amélioration du système.

Informations sur l’achat

Comment les clients peuvent-ils acheter en disponibilité générale ?

Copilot pour la sécurité est disponible sur tous les canaux : EA, MCA-E, CSP, Acheter en ligne et Web Direct hérité.

Existe-t-il des conditions préalables à l’achat ?

Un abonnement Azure et Microsoft Entra ID (anciennement Azure Active Directory) sont des conditions préalables à l’utilisation de Copilot pour la sécurité ; il n’existe pas d’autres prérequis pour le produit. Pour plus d’informations, consultez Prise en main de Copilot pour la sécurité.

Questions techniques et sur les produits

Les clients reçoivent-ils un support d’intégration ?

Lors de l’achat, les clients bénéficient d’un accès facile à la documentation, aux vidéos et aux blogs.

Où puis-je trouver plus d’informations sur la protection des données et la confidentialité ?

Pour en savoir plus, consultez le Centre de gestion de la confidentialité Microsoft.

Le déploiement Microsoft Entra ID (anciennement Azure Active Directory) est-il obligatoire pour Copilot pour la sécurité ?

Oui. Copilot pour la sécurité est une application SaaS et nécessite qu’AAD authentifie les utilisateurs qui y ont accès.

L’intégration de Defender pour XDR et Sentinel couvre-t-elle les données stockées ou uniquement les alertes et les incidents (événements notables) ?

Copilot pour la sécurité couvre à la fois les alertes/incidents et les données stockées. Le produit récupère les données des tables de chasse avancées dans Defender pour XDR et des tables de données principales dans Microsoft Sentinel.

Quels outils partenaires sont intégrés à Copilot pour la sécurité ?

Les clients peuvent utiliser des plug-ins tiers développés par des éditeurs de logiciels indépendants tels que Cyware, Netskope SGNL, Tanium et Valence Security en préversion publique. Des plug-ins tiers développés par Microsoft, tels que CIRC.lu, CrowdSec, Greynoise et URLScan, sont également disponibles. D’autres plug-ins seront ajoutés à l’avenir.

Remarque

Les produits qui s’intègrent à Copilot pour la sécurité doivent être achetés séparément.

Peut-Copilot pour la sécurité isoler les machines à l’aide de Microsoft Defender pour point de terminaison et de Microsoft Intune ? Pouvez-vous personnaliser et/ou bloquer des E/S individuelles ?

Copilot pour la sécurité ne pouvez pas isoler les machines. Il peut fournir des recommandations aux administrateurs de sécurité pour qu’ils doivent isoler certaines machines, mais Copilot pour la sécurité n’effectue pas cette action elle-même. Vous pouvez évaluer si des E/S individuelles sont présentes dans l’environnement à l’aide de Copilot pour la sécurité. Toutefois, Copilot pour la sécurité ne les bloque pas automatiquement. L’automatisation peut intervenir à une date ultérieure, mais pour l’instant, Copilot pour la sécurité n’effectue pas d’action de correction par elle-même.

Est-ce que Copilot pour la sécurité IPv6 est compatible ?

Il existe une fonctionnalité appelée Obtenir des composants web par adresse IP qui prend actuellement en charge IPV4.

Le Copilot pour la sécurité fait-il des recommandations pour les scénarios IoT/OT ?

Non, Copilot pour la sécurité ne prend actuellement pas en charge IoT/OT.

Est-ce que Copilot pour la sécurité propose un tableau de bord ou ne pouvez-vous examiner que des événements uniques ?

Copilot pour la sécurité ne fournit pas de tableau de bord, mais vous pouvez interroger plusieurs incidents dans Microsoft Sentinel. Pour la base de référence, elle peut fournir une visualisation d’un chemin d’attaque.

Peut-Copilot pour la sécurité exécuter des flux de travail , du triage à l’utilisation de messages épinglés, en passant par la façon dont le client doit étiqueter l’incident et si un incident doit être fermé ?

Non, les flux de travail ne sont actuellement pas pris en charge dans Copilot pour la sécurité.

Quelles sont les fonctionnalités de contrôle d’accès ou de délégation en fonction du rôle Copilot pour la sécurité ? Comment les autorisations utilisateur sont-elles conservées dans Copilot pour la sécurité alignées sur les configurations d’autorisations utilisateur dans d’autres solutions ?

Copilot pour la sécurité utilise les droits « administrateur de la part de » (AOBO) pour l’utilisateur connecté. Pour plus d'informations, voir Comprendre l'authentification .

Pourquoi Microsoft Copilot transfère-t-il des données à un locataire Microsoft ?

Microsoft Copilot est une offre SaaS (Software as a Service) qui s’exécute dans le locataire de production Azure. Les utilisateurs entrent des invites et Copilot pour la sécurité fournit des réponses basées sur les insights provenant d’autres produits tels que Microsoft Defender XDR, Microsoft Sentinel et Microsoft Intune. Copilot pour la sécurité stocke les invites et réponses passées pour un utilisateur. L’utilisateur peut utiliser l’expérience intégrée au produit pour accéder aux invites et aux réponses. Les données d’un client sont isolées logiquement des données des autres clients. Ces données ne quittent pas le locataire de production Azure et sont stockées jusqu’à ce que les clients demandent à les supprimer ou à quitter le produit.

Comment les données transférées sont-elles sécurisées en transit et au repos ?

Les données sont chiffrées à la fois en transit et au repos, comme décrit dans l’addendum sur la protection des données des produits et services Microsoft.

Comment les données transférées sont-elles protégées contre tout accès non autorisé et quels tests ont été effectués pour ce scénario ?

Par défaut, aucun utilisateur humain n’a accès à la base de données et l’accès réseau est limité au réseau privé sur lequel l’application Microsoft Copilot est déployée. Si une personne a besoin d’un accès pour répondre à un incident, l’ingénieur de garde a besoin d’un accès élevé et d’un accès réseau approuvés par les employés de Microsoft autorisés.

Outre les tests de fonctionnalités réguliers, Microsoft a également effectué des tests d’intrusion. Microsoft Copilot pour la sécurité est conforme à toutes les exigences de confidentialité, de sécurité et de conformité de Microsoft.

Dans « Mes sessions » lorsqu’une session individuelle est supprimée, qu’advient-il des données de session ?

Les données de session sont stockées à des fins d’exécution (pour faire fonctionner le service) et également dans les journaux. Dans la base de données runtime, lorsqu’une session est supprimée via l’expérience utilisateur intégrée au produit, toutes les données associées à cette session sont marquées comme supprimées et la durée de vie (TTL) est définie sur 30 jours. Une fois la durée de vie expirée, les requêtes ne peuvent plus accéder à ces données. Un processus en arrière-plan supprime physiquement les données après cette date. En plus de la base de données runtime « live », il existe des sauvegardes de base de données périodiques. Les sauvegardes vieilliront : celles-ci ont des périodes de rétention de courte durée (actuellement définies sur quatre jours).

Les journaux, qui contiennent des données de session, ne sont pas affectés lorsqu’une session est supprimée via l’expérience utilisateur intégrée au produit. Ces journaux ont une période de rétention allant jusqu’à 90 jours.

Quelles conditions du produit s’appliquent à Copilot pour la sécurité ? Est-Copilot pour la sécurité un « Service d’IA générative Microsoft » au sens des Conditions du produit Microsoft ?

Les conditions du produit suivantes régissent Copilot pour la sécurité clients :

  • Conditions du contrat de licence universel pour les services en ligne dans les Conditions du produit, qui incluent les conditions des services d’IA générative Microsoft et l’engagement de copyright du client.

  • Confidentialité & Conditions de sécurité dans les Conditions du produit Microsoft, qui incluent l’Addendum sur la protection des données.

Copilot pour la sécurité est un service d’IA générative dans la définition des conditions du produit. En outre, Copilot pour la sécurité est un « Produit couvert » aux fins de l’engagement du client en matière de droits d’auteur. À l’heure actuelle, dans les Conditions du produit, il n’existe aucune condition spécifique au produit propre à Copilot pour la sécurité.

En plus des conditions du produit, les contrats MBSA/EA et MCA des clients, par exemple, régissent la relation entre les parties. Si un client a des questions spécifiques sur ses contrats avec Microsoft, faites appel au CE, au responsable des transactions ou au CELA local qui prend en charge la transaction.

Microsoft Customer Copyright Commitment est un nouvel engagement qui étend la prise en charge de l’indemnité de propriété intellectuelle existante de Microsoft à certains services Commerciaux Copilot. L’engagement de copyright du client s’applique à Copilot pour la sécurité. Si un tiers poursuit un client commercial pour violation de droits d’auteur pour l’utilisation des Copilots de Microsoft ou la sortie qu’ils génèrent, Microsoft défendra le client et paiera le montant des jugements ou des règlements défavorables résultant de la poursuite, à condition que le client ait utilisé les garde-fous et les filtres de contenu intégrés à nos produits.

Les clients Copilot pour la sécurité peuvent-ils refuser la surveillance des abus du service Azure OpenAI ? Est-ce que Copilot pour la sécurité s’engage dans un filtrage de contenu ou une surveillance des abus ?

La surveillance des abus Azure OpenAI est actuellement désactivée à l’échelle du service pour tous les clients.

Est-ce que Copilot pour la sécurité prend des engagements en matière d’emplacement de traitement des données ou de résidence des données ?

  1. Emplacement du traitement des données : pour l’instant, Copilot pour la sécurité n’effectue aucun emplacement contractuel d’engagements de traitement des données. En vertu des Conditions du produit et en utilisant un service Microsoft Generative AI, Copilot pour la sécurité clients acceptent que leurs données puissent être traitées en dehors de la région géographique de leur locataire. Toutefois, les administrateurs client peuvent sélectionner l’emplacement pour l’évaluation rapide. Bien que Microsoft recommande d’autoriser l’évaluation rapide n’importe où avec la capacité GPU disponible pour obtenir des résultats optimaux, les clients peuvent choisir parmi quatre régions pour que leurs invites soient évaluées uniquement dans ces régions

    Régions actuellement disponibles pour l’évaluation rapide :

    • Australie (ANZ)
    • Europe (UE)
    • Royaume-Uni (Royaume-Uni)
    • États-Unis (États-Unis).
  2. Emplacement du stockage des données (résidence des données) : pour le moment, Copilot pour la sécurité ne prend pas d’engagements contractuels en matière de stockage/résidence des données. Si un client n’est pas choisi pour le partage de données*, Copilot pour la sécurité stocke les données au repos dans la zone géographique d’origine du locataire.

    Par exemple, pour un locataire client dont le domicile se trouve en Allemagne, Copilot pour la sécurité stocke les données client en « Europe » en tant que zone géographique désignée pour l’Allemagne.

    *Si un client opte pour le partage de données, les données client, telles que les invites et les réponses, sont partagées avec Microsoft pour améliorer les performances du produit, améliorer la précision et traiter la latence de réponse. Lorsque cet événement se produit, les données client telles que les invites peuvent être stockées en dehors de la zone géographique du locataire.

Est-ce que Copilot pour la sécurité un service de limite de données de l’UE Microsoft ?

Au moment de la disponibilité générale, tous les services de sécurité Microsoft ne sont pas concernés par les exigences de résidence des données de l’UE et Copilot pour la sécurité ne seront pas répertoriés en tant que service EUDB.

Où sont stockées les données des clients de l’UE ?

Copilot pour la sécurité stocke les données client et les données personnelles, telles que les invites utilisateur et les ID d’objet Microsoft Entra dans la zone géographique du locataire. Si un client approvisionne son locataire dans l’UE et n’a pas choisi le partage de données, toutes les données client et les données personnelles pseudonymes sont stockées au repos dans l’UE. Le traitement des données client et des invites de données personnelles peut se produire dans la zone géographique du GPU de sécurité désignée. Pour plus d’informations sur la sélection de la zone géographique du GPU de sécurité, consultez Prise en main de Copilot pour la sécurité. Si un client a choisi le partage de données, les invites peuvent être stockées en dehors de la limite de données de l’UE. Pour plus d’informations sur le partage de données, consultez Confidentialité et sécurité des données dans Microsoft Copilot pour la sécurité.

Les invites client (telles que le contenu d’entrée du client) sont-elles considérées comme des données client dans les termes du DPA et des conditions du produit ?

Oui, les invites des clients sont considérées comme des données client. Sous les Conditions du produit, les invites du client sont considérées comme des entrées. Les entrées sont définies comme « toutes les données client que le client fournit, désigne, sélectionne ou entrées pour une utilisation par une technologie d’intelligence artificielle générative pour générer ou personnaliser une sortie ».

Le « contenu de sortie » est-il considéré comme des données client dans les termes du DPA et des conditions du produit ?

Oui, le contenu de sortie est des données client sous les Conditions du produit.

Existe-t-il une note de transparence ou une documentation sur la transparence pour Copilot pour la sécurité ?

Oui, le document sur la transparence de l’IA responsable est disponible ici : FAQ sur l’IA responsable.

Comment Copilot pour la sécurité traite-t-il une « limite de jetons » ?

Les modèles de langage volumineux (LLM), y compris GPT, ont des limites quant à la quantité d’informations qu’ils peuvent traiter à la fois. Cette limite est appelée « limite de jetons » et correspond approximativement à 1,2 mot par jeton. Copilot pour la sécurité utilise les derniers modèles GPT d’Azure OpenAI pour nous assurer que nous pouvons traiter autant d’informations que possible en une seule session. Dans certains cas, des invites volumineuses, des sessions longues ou une sortie de plug-in détaillée peuvent déborder l’espace du jeton. Lorsque ce scénario se produit, Copilot pour la sécurité tente d’appliquer des atténuations pour garantir qu’une sortie est toujours disponible, même si le contenu de cette sortie n’est pas optimal. Ces atténuations ne sont pas toujours efficaces et il peut être nécessaire d’arrêter le traitement de la demande et d’indiquer à l’utilisateur d’essayer une autre invite ou plug-in.

Le code de conduite du service Azure OpenAI inclut les « exigences d’atténuation de l’IA responsable ». Comment ces exigences s’appliquent-elles aux clients Copilot pour la sécurité ?

Ces exigences ne s’appliquent pas aux clients Copilot pour la sécurité, car Copilot pour la sécurité implémente ces atténuations.

Informations sur le partenaire

Quels sont les cas d’usage pour les partenaires ?  

Les partenaires peuvent fournir des signaux ou créer des solutions complémentaires autour de scénarios Copilot pour la sécurité.

Je travaille avec un fournisseur de services de sécurité managés (MSSP). Peut-il utiliser et gérer Copilot pour la sécurité en mon nom ?

Oui, les fournisseurs de services de sécurité qui fournissent des services SOC aux clients peuvent accéder à l’environnement Copilot pour la sécurité du client si le client choisit d’y fournir l’accès. (Apportez votre propre MSSP).

Remarque

Disponible dans le portail autonome uniquement avec des fonctionnalités limitées.

L’intégration et la gestion de l’accès MSSP à votre locataire (client) sont proposés via l’accès invité (B2B) et GDAP. Il n’existe actuellement pas de modèle csp ou multilocataire revendeur pour les FOURNISSEURS DE SERVICES. Chaque client est responsable de l’achat de ses propres SKU et de la configuration de ses MSSP avec l’accès nécessaire.

Les msp peuvent-ils utiliser une seule instance de Copilot pour la sécurité pour gérer plusieurs locataires ?

Copilot pour la sécurité ne prend pas en charge l’invite sur plusieurs locataires. Au lieu de cela, les mssp peuvent utiliser le changement de locataire et cibler un locataire client, à l’aide des options d’accès délégué prises en charge.

Les mssp peuvent gérer plusieurs locataires clients dans Copilot pour la sécurité à l’aide du changement de locataire à partir de leur locataire MSSP. Le changement de locataire permet aux partenaires de basculer entre les locataires et de sécuriser un locataire à la fois avec des invites/requêtes en sélectionnant le locataire client dans une liste déroulante. Les clients peuvent également ajouter l’ID de locataire (GUID) dans l’URL de session Copilot pour la sécurité en tant que paramètre de chaîne de requête. Les locataires clients peuvent être sélectionnés en fonction de l’accès délégué au locataire client. Copilot pour la sécurité est utilisé sous le contexte de l’utilisateur, de sorte que le partenaire peut uniquement accéder à ce à quoi le compte délégué a reçu l’accès dans le locataire du client.

Des intégrations tierces sont-elles disponibles aujourd’hui ?

Nous travaillons avec des éditeurs de logiciels indépendants comme Cyware, Netskope, SGNL, Tanium et Valence Security pour publier leurs plug-ins en préversion publique et continuer à créer davantage d’intégrations avec le reste de l’écosystème de partenaires.

Existe-t-il une place de marché pour les plug-ins ou les services ? 

Il n’existe pas de place de marché de plug-in au niveau de la disponibilité générale. Les éditeurs de logiciels indépendants peuvent publier leurs solutions sur GitHub. En disponibilité générale, tous les partenaires sont tenus de publier leurs solutions ou services managés sur la Place de marché commerciale Microsoft. Vous trouverez plus d’informations sur la publication sur la Place de marché ici :

Publier la solution sur la Place de marché commerciale Microsoft :

Spécifique à MSSP : Doit avoir une désignation de sécurité dans Microsoft AI Cloud Partner Program.

Spécifique à SaaS :

Qu’en est-il des MSSP qui participent également à Copilot pour la sécurité EAP en tant que client ? 

Les FSSP qui font partie d’EAP continueront d’avoir accès à Copilot pour la sécurité jusqu’à la fin de l’accord de 6 mois du PAE. Si un MSSP utilise le même locataire pour les services SOC internes et gérés par le client, il doit acheter un plan de capacité et s’assurer que les modèles d’accès délégué pris en charge sont activés via le locataire SOC managé utilisé. Si un MSSP utilise un locataire uniquement pour les services SOC gérés par le client qui n’est pas utilisé pour les services gérés SOC internes, le mssp doit avoir le locataire approvisionné manuellement pour Copilot pour la sécurité par Microsoft. Par conséquent, aucun achat de plan de capacité n’est nécessaire pour le provisionnement de Copilot pour la sécurité.

Que se passe-t-il si les msp n’utilisent pas Microsoft Defender XDR ou Microsoft Sentinel ? 

Microsoft Copilot pour la sécurité n’a pas d’exigence spécifique de produit de sécurité Microsoft pour l’approvisionnement ou l’utilisation, car la solution repose sur l’agrégation de sources de données à partir de microsoft et de services tiers. Cela dit, il est important d’avoir Microsoft Defender XDR et Microsoft Sentinel activés en tant que plug-ins pris en charge pour enrichir les investigations. Copilot pour la sécurité utilise uniquement les compétences et accède aux données à partir de plug-ins activés.

Une solution SOC MSSP doit-elle être hébergée sur Azure ? 

Il est recommandé que la solution soit hébergée sur Azure, mais pas obligatoire. 

Existe-t-il une feuille de route de produit qui peut être partagée avec les partenaires ? 

Non, ce n’est actuellement pas possible.