Notes
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Qu’est-ce qu’une note de transparence ?
Un système IA comprend non seulement la technologie, mais également les personnes qui l’utiliseront, les personnes qui seront affectées par elle et l’environnement dans lequel il est déployé. La création d’un système adapté à son objectif nécessite une compréhension du fonctionnement de la technologie, de ses capacités et de ses limites, et de la façon d’obtenir les meilleures performances. Les notes de transparence de Microsoft sont destinées à vous aider à comprendre le fonctionnement de notre technologie IA, les choix que les propriétaires de système peuvent faire qui influencent les performances et le comportement du système, et l’importance de penser à l’ensemble du système, y compris la technologie, les personnes et l’environnement. Nous continuerons à mettre à jour ce document à mesure que le service évolue.
Les notes de transparence de Microsoft font partie d’un effort plus large de Microsoft visant à mettre en pratique nos principes d’IA. Pour en savoir plus, consultez les principes de Microsoft AI.
Les principes de base de Microsoft 365 Copilot
Introduction
Microsoft 365 Copilot est un outil de productivité basé sur l’IA qui utilise des modèles de langage volumineux (LLM) et intègre des données aux applications et services Microsoft Graph et Microsoft 365. Il fonctionne avec les applications Microsoft 365 populaires telles que Word, Excel, PowerPoint, Outlook, Teams, etc.
Microsoft 365 Copilot utilise une combinaison de modèles fournis par Azure OpenAI Service. Cela nous permet de répondre aux besoins spécifiques de chaque fonctionnalité (par exemple, vitesse, créativité) au modèle approprié, afin que Microsoft 365 Copilot puisse fournir une assistance intelligente en temps réel qui permet aux utilisateurs d’améliorer leur créativité, leur productivité et leurs compétences.
Pour plus d’informations détaillées sur les modules LLM fournis à Microsoft par OpenAI, reportez-vous à leur documentation publique, disponible dans Modèles - API OpenAI.
Termes clés
Term | Description |
---|---|
Invite utilisateur | Une invite utilisateur est le texte envoyé à Microsoft 365 Copilot pour exécuter une tâche spécifique ou fournir des informations. Par exemple, un utilisateur peut entrer l’invite suivante : Écrire un e-mail pour féliciter mon équipe à la fin de l’exercice. |
Traitement | Le traitement d’une invite utilisateur dans Microsoft 365 Copilot implique plusieurs étapes, notamment des vérifications d’IA responsables, pour s’assurer que Microsoft 365 Copilot fournit des réponses pertinentes et exploitables. |
Terre | La mise à la base fait référence au processus de fourniture de sources d’entrée au LLM lié à l’invite de l’utilisateur. En permettant aux Microsoft 365 Copilot d’accéder aux données à utiliser comme sources d’entrée, telles que les données de Microsoft Graph ou Bing, Microsoft 365 Copilot peut fournir des réponses plus précises et contextuellement pertinentes aux utilisateurs. |
Microsoft Graph | Microsoft Graph est une passerelle qui vous permet d’accéder aux données et aux renseignements dans Microsoft 365. Il inclut des informations sur les relations entre les utilisateurs, les activités et les données d’un organization. |
Connecteurs Microsoft Graph | Les connecteurs Microsoft Graph offrent un moyen d’importer du contenu de services externes dans Microsoft Graph, ce qui permet de fournir des données externes pour alimenter des expériences intelligentes Microsoft 365 telles que recherche microsoft et Microsoft 365 Copilot. |
Indexation | Microsoft utilise à la fois l’indexation lexicale et sémantique des données Microsoft Graph pour créer des réponses pour Microsoft 365 Copilot dans les données d’entreprise. L’indexation interprète les invites utilisateur pour produire des réponses contextuellement pertinentes. Pour plus d’informations sur l’indexation, consultez Comportement du système. |
Invite enrichie | Une invite est enrichie lorsque des instructions supplémentaires sont ajoutées à l’invite entrée d’un utilisateur pour guider Microsoft 365 Copilot dans la génération d’une réponse plus spécifique et plus pertinente. |
Contenu des interactions | Terme utilisé pour décrire l’invite de l’utilisateur et la réponse de Microsoft 365 Copilot à cette invite. |
Modèle LLM (Large Language Model) | Dans ce contexte, les modèles de langage volumineux (LLM) sont des modèles IA qui sont entraînés sur de grandes quantités de données texte pour prédire des mots par séquences. Les llms sont capables d’effectuer diverses tâches, telles que la génération de texte, le résumé, la traduction, la classification, etc. |
Réponse LLM | Contenu généré par le LLM en réponse à l’invite utilisateur retournée à Microsoft 365 Copilot. |
Post-traitement | Le Microsoft 365 Copilot de traitement effectue une fois qu’il a reçu une réponse du LLM. Ce post-traitement inclut des appels de base supplémentaires à Microsoft Graph, une IA responsable, des contrôles de sécurité, de conformité et de confidentialité. |
IA responsable | Les pratiques de politique, de recherche et d’ingénierie de Microsoft qui sont ancrées dans nos principes d’IA et mises en œuvre par le biais de notre norme d’IA responsable. |
Agents Copilot | Les agents Copilot sont des applications développées par Microsoft et d’autres fournisseurs que les utilisateurs et les organisations peuvent installer pour ajouter de nouvelles compétences et connaissances à Microsoft 365 Copilot. Pour plus d’informations sur l’utilisation de l’IA dans les agents Copilot, reportez-vous directement à ces offres. |
Test de l’équipe rouge | Techniques utilisées par les experts pour évaluer les limitations et les vulnérabilités d’un système et pour tester l’efficacité des atténuations planifiées. Les tests d’équipe rouge sont utilisés pour identifier les risques potentiels et sont distincts de la mesure systématique des risques. |
Fonctionnalités
Fonctionnalités
Fonctionnalité | Description |
---|---|
Microsoft 365 Copilot pour Word | Microsoft 365 Copilot pour Word transforme l’écriture avec efficacité et créativité, afin que les utilisateurs puissent créer, résumer, comprendre, affiner et élever des documents. Les utilisateurs peuvent également utiliser des fonctionnalités améliorées telles que la visualisation et la transformation de texte en tableau. D’autres fonctionnalités incluent également l’ajout à des invites existantes, la rédaction d’un document en référençant d’autres documents et la découverte d’informations sur les documents. Pour plus d’informations, consultez Forum aux questions sur les Copilot pour Word. |
Microsoft 365 Copilot pour PowerPoint | Microsoft 365 Copilot pour PowerPoint permet aux utilisateurs de créer une présentation à partir d’une invite ou d’un fichier Word, en tirant parti des modèles d’entreprise. La fonctionnalité de conversation active Résumé et Q&A, et la commande light permet aux utilisateurs d’ajouter des diapositives, des images ou d’apporter des modifications de mise en forme à l’échelle du jeu. Les fichiers PowerPoint peuvent également être utilisés pour la mise à la terre des données. Pour plus d’informations, consultez Forum aux questions sur les Copilot pour PowerPoint. |
Microsoft 365 Copilot pour Excel | Microsoft 365 Copilot pour Excel aide les utilisateurs à faire des suggestions pour les formules, les types de graphiques et les insights sur les données dans les feuilles de calcul. Pour plus d’informations, consultez Forum aux questions sur les Copilot pour Excel. |
Microsoft 365 Copilot pour Outlook | Microsoft 365 Copilot pour Outlook permet de gérer la boîte de réception des e-mails et de créer une communication plus efficace. Microsoft 365 Copilot pour Outlook pouvez résumer un fil de messagerie, suggérer des éléments d’action, des réponses et des réunions de suivi. Il peut également ajuster la longueur et le ton lors de la rédaction d’un e-mail. Pour plus d’informations, consultez Forum aux questions sur les Copilot pour Outlook. |
Microsoft 365 Copilot pour Teams | Microsoft 365 Copilot pour Teams pouvez récapituler les conversations, organiser les points de discussion clés et résumer les actions clés. Les utilisateurs peuvent obtenir des réponses à des questions spécifiques et rattraper les choses qu’ils ont manquées lors de réunions ou de conversations Pour plus d’informations, consultez Forum aux questions sur Copilot dans Microsoft Teams. |
Microsoft 365 Copilot pour Loop | Microsoft 365 Copilot pour Loop permet aux utilisateurs de créer du contenu qui peut être amélioré en collaboration par l’édition directe ou l’affinement par Copilot. Pour plus d’informations, consultez Forum aux questions sur les Copilot pour Loop. |
Microsoft 365 Copilot dans Microsoft Stream | Microsoft 365 Copilot dans Microsoft Stream permet d’obtenir des informations à partir de n’importe quelle vidéo avec une transcription. Microsoft 365 Copilot dans Stream peuvent fournir un résumé de la vidéo, répondre à des questions spécifiques, passer rapidement à des sujets ou des points de discussion spécifiques et identifier des appels à l’action. Pour plus d’informations, consultez forum aux questions sur Copilot dans Stream. |
Microsoft 365 Copilot pour Whiteboard | Microsoft 365 Copilot pour Whiteboard permet de lancer le processus de création de idées pour générer, catégoriser et résumer des idées. Pour plus d’informations, consultez Forum aux questions sur Copilot dans Whiteboard. |
Microsoft 365 Copilot pour OneNote | Microsoft 365 Copilot pour OneNote permet aux utilisateurs de rédiger des plans, de générer des idées, de créer des listes et d’organiser des informations pour les aider à trouver ce dont ils ont besoin dans l’application OneNote. Pour plus d’informations, consultez Forum aux questions sur les Copilot pour OneNote. |
Microsoft 365 Copilot Chat | Microsoft 365 Copilot Chat (précédemment nommé Business Chat) combine la puissance des modèles de langage volumineux avec l’Internet, le contenu et le contexte professionnels, et d’autres applications, pour aider les utilisateurs à rédiger du contenu, à rattraper ce qui a manqué et à obtenir des réponses aux questions via des invites. |
Microsoft 365 Copilot dans l’éditeur de texte enrichi SharePoint | Microsoft 365 Copilot dans l’éditeur de texte enrichi Microsoft SharePoint simplifie la création de contenu sur les pages et les publications SharePoint. Avec Copilot, vous pouvez réécrire du texte, ajuster le ton, condenser les informations et élaborer des idées. Pour plus d’informations, voir Forum aux questions sur Copilot dans SharePoint. |
Microsoft 365 Copilot pour OneDrive | Microsoft 365 Copilot pour OneDrive est une assistant innovante basée sur l’IA conçue pour vous aider à interagir avec vos documents en extrayant des informations, en comparant les principales différences, en résumant les fichiers et en générant des insights. Pour plus d’informations, consultez forum aux questions sur les Copilot pour OneDrive. |
Microsoft 365 Copilot cartes de coup d’œil | Les cartes Coup d’œil offrent un aperçu rapide des entités de travail, telles que des documents, pour vous aider à évaluer la pertinence ou le rappel. Ils sont accessibles en pointant sur les fichiers sous l’onglet Recherche du application Microsoft 365 Copilot. |
Recherche intelligente | La recherche intelligente permet la recherche dans les applications Dataverse telles que Dynamics 365 Sales, Service et Finance & Operations à l’aide du langage naturel. |
Connecteurs Power Platform | Les connecteurs Power Platform permettent aux clients d’accéder aux données en temps réel à partir d’une collection d’applications de productivité professionnelles et personnelles dans le Microsoft 365 Copilot expérience. |
Connecteurs Microsoft Graph | Les connecteurs Microsoft Graph permettent de se connecter à des sources de données externes, y compris jusqu’à 500 éléments par licence Microsoft 365 Copilot. |
Microsoft Purview | Microsoft Purview est une solution qui aide les organisations à gérer et à protéger leurs données. Il fournit une plateforme unifiée pour la gouvernance des données, la protection des informations, la gestion des risques et la conformité. Les clients peuvent étendre les fonctionnalités Microsoft Purview fournies par les abonnements Microsoft des clients (par exemple, les abonnements Microsoft 365 E3 ou E5) pour Microsoft 365 Copilot des données et des interactions. |
réglage Microsoft 365 Copilot | Microsoft 365 Copilot Paramétrage permet aux organisations d’affiner les modèles de langage volumineux (LLM) à l’aide de leurs propres données de locataire. Ces modèles peuvent être utilisés pour effectuer des tâches spécifiques à un domaine en fonction des connaissances uniques de l’organization. Pour plus d’informations, consultez FAQ sur l’IA responsable pour le réglage Microsoft 365 Copilot |
Comportement du système
Microsoft 365 Copilot utilise une combinaison de llms pour résumer, prédire et générer du contenu. Ces llms incluent des modèles préentraînés, tels que les transformateurs préformés génératifs (GPT) comme GPT-4 d’OpenAI, conçus pour exceller dans ces tâches.
Les fonctionnalités que les utilisateurs voient dans les applications Microsoft 365 apparaissent sous forme de fonctionnalités supplémentaires, de fonctionnalités et de fonctionnalités d’invite. Les llMs et les technologies Microsoft propriétaires fonctionnent ensemble dans un système sous-jacent qui permet aux utilisateurs d’accéder, d’utiliser et de gérer leurs données organisationnelles en toute sécurité.
Les applications Microsoft 365 (telles que Word, Excel, PowerPoint, Outlook, OneNote, Teams et Loop) fonctionnent avec Microsoft 365 Copilot pour aider les utilisateurs dans le flux de leur travail. Par exemple, Microsoft 365 Copilot pour Word est conçu pour aider les utilisateurs à créer, comprendre et modifier des documents. De la même façon, Microsoft 365 Copilot dans les autres applications aide les utilisateurs dans le contexte de leur travail au sein de ces applications.
Microsoft Graph est depuis longtemps un élément fondamental de Microsoft 365. Il inclut des informations sur les relations entre les utilisateurs, les activités et les données d’un organization. Microsoft API Graph apporte davantage de contexte à partir des signaux des clients dans l’invite, par exemple des informations provenant d’e-mails, de conversations, de documents et de réunions. Pour plus d’informations, consultez Vue d’ensemble de Microsoft Graph et Principaux services et fonctionnalités dans Microsoft Graph.
Microsoft 365 Copilot Chat permet aux clients d’apporter du contenu professionnel et du contexte aux fonctionnalités de conversation de Microsoft 365 Copilot. Avec Microsoft 365 Copilot Chat, les utilisateurs peuvent rédiger du contenu, rattraper ce qu’ils ont manqué et obtenir des réponses à leurs questions via des invites ouvertes, toutes ancrées en toute sécurité dans les données de travail. Utilisez Microsoft 365 Copilot Chat sur de nombreuses surfaces, y compris dans Microsoft Teams, à Microsoft365.com et à copilot.microsoft.com.
L’index sémantique est un index généré à partir du contenu dans Microsoft Graph. Il est utilisé pour faciliter le traitement des invites utilisateur afin de produire des réponses contextuellement pertinentes. Il permet aux organisations de rechercher des milliards de vecteurs (représentations mathématiques de caractéristiques ou d’attributs) et de retourner les résultats associés. L’index sémantique est conçu pour respecter le contexte de sécurité des utilisateurs individuels, et seul le contenu auquel un utilisateur peut accéder est affiché. L’index sémantique repose sur l’approche complète de Microsoft en matière de sécurité, de conformité et de confidentialité, et respecte toutes les limites organisationnelles au sein du locataire du client. Pour plus d’informations, consultez Index sémantique pour Copilot.
Voici une explication du fonctionnement de Microsoft 365 Copilot :
Microsoft 365 Copilot reçoit une invite d’entrée d’un utilisateur dans une application, par exemple Word ou PowerPoint.
Microsoft 365 Copilot traite ensuite l’invite utilisateur, ce qui améliore la spécificité de l’invite, pour aider l’utilisateur à obtenir des réponses pertinentes et exploitables pour sa tâche spécifique. L’invite peut inclure du texte provenant de fichiers d’entrée ou d’autres contenus découverts par Microsoft 365 Copilot à l’aide de Microsoft Graph, et Microsoft 365 Copilot envoie cette invite au LLM pour traitement. Microsoft 365 Copilot accède uniquement aux données auxquelles un utilisateur individuel a un accès existant, en fonction, par exemple, des contrôles d’accès en fonction du rôle Microsoft 365 existants.
Microsoft 365 Copilot prend la réponse du LLM et la post-traite. Ce post-traitement inclut d’autres appels de base à Microsoft Graph, des vérifications d’IA responsables telles que des classifieurs de contenu, des contrôles de sécurité, de conformité et de confidentialité, et la génération de commandes.
Microsoft 365 Copilot retourne la réponse à l’application, où l’utilisateur peut examiner et évaluer la réponse.
Les données sont chiffrées tant qu’elles sont stockées et ne sont pas utilisées pour entraîner les machines llms de base du service Azure OpenAI, y compris celles utilisées par Microsoft 365 Copilot. Pour plus d’informations à ce sujet, consultez Données, confidentialité et sécurité pour Microsoft 365 Copilot.
Comment Microsoft 365 Copilot génère des réponses sans contenu web ni données organisationnelles
Microsoft 365 Copilot ne nécessite pas de contenu web ou de données organisationnelles pour fournir une réponse, mais ces informations peuvent aider à améliorer la qualité, la précision et la pertinence de sa réponse. Lorsque vous répondez sans données web ou organisationnelles, Microsoft 365 Copilot s’appuie uniquement sur ses llMs pour comprendre les invites et générer des réponses. Le processus implique l’analyse de l’entrée, l’utilisation des base de connaissances internes du modèle et l’affinement de la réponse pour s’assurer qu’elle est contextuellement appropriée.
Extensibilité & personnalisation
Microsoft 365 Copilot offre des fonctionnalités pour aider les utilisateurs à déverrouiller la productivité et la créativité. Son adaptabilité signifie qu’il peut être personnalisé pour répondre aux besoins uniques de différentes organisations. La possibilité d’étendre ses fonctionnalités par le biais d’extensions en fait une ressource en constante évolution qui peut s’adapter au paysage en constante évolution des besoins de l’entreprise. En savoir plus sur la personnalisation des Microsoft 365 Copilot sur Copilot | Développeur Microsoft. Pour plus d’informations sur l’utilisation de l’IA dans les extensions, reportez-vous directement à ces offres.
Cas d’usage
Microsoft 365 Copilot est un service à usage général, conçu pour faciliter un large éventail de tâches quotidiennes dans n’importe quel organization en se connectant à des données professionnelles et en s’intégrant aux applications que les clients utilisent quotidiennement. Par exemple :
Interaction de conversation et de conversation & création : les utilisateurs peuvent interagir avec Microsoft 365 Copilot Chat et générer des réponses tirées de documents approuvés tels que la documentation interne de l’entreprise ou la documentation de support technique.
Recherche : les utilisateurs peuvent rechercher des documents sources approuvés tels que la documentation interne de l’entreprise.
Résumé : les utilisateurs peuvent soumettre du contenu à synthétiser pour les rubriques prédéfinies intégrées à l’application. Les exemples incluent le résumé des conversations, des e-mails, des pages web et des documents Word Teams.
Aide à la rédaction de rubriques spécifiques : les utilisateurs peuvent créer du contenu ou réécrire du contenu soumis par l’utilisateur en tant qu’aide à la rédaction de contenu professionnel ou de rubriques prédéfinies. Par exemple, la rédaction d’e-mails dans Microsoft Outlook ou l’écriture de contenu dans Microsoft Word.
Sous-titrage ou transcription : les utilisateurs peuvent transcrire des fichiers audio en texte pour la compréhension du langage naturel ou des tâches analytiques telles que le résumé. Par exemple, les transcriptions et vidéos de réunion Teams sur Microsoft Stream.
Microsoft fournit des conseils détaillés axés sur les cas d’usage courants et les scénarios, afin d’aider les clients à accélérer l’intégration des fonctionnalités de Microsoft 365 Copilot dans leur organisation. Pour en savoir plus, consultez Bibliothèque de scénarios Microsoft Copilot – Adoption de Microsoft.
Considérations relatives au choix d’un cas d’usage
Nous encourageons les utilisateurs à passer en revue tout le contenu généré par Microsoft 365 Copilot avant de l’utiliser. En outre, il existe certains scénarios que nous vous recommandons d’éviter. Dans certains cas, une surveillance et un examen humains significatifs peuvent réduire davantage le risque de résultats nocifs.
Éviter l’utilisation ou l’utilisation incorrecte du système pourrait entraîner des blessures physiques ou psychologiques importantes pour un individu. Par exemple, les scénarios qui diagnostiquent des patients ou prescrivent des médicaments peuvent causer des dommages importants.
Éviter l’utilisation ou l’utilisation abusive du système pourrait avoir un impact conséquent sur les possibilités de vie ou les status juridiques. Par exemple, le système d’IA pourrait affecter les status juridiques d’une personne, ses droits légaux ou son accès au crédit, à l’éducation, à l’emploi, aux soins de santé, au logement, à l’assurance, aux prestations sociales, aux services, aux opportunités ou aux conditions selon lesquelles elles sont fournies.
Examinez soigneusement les cas d’usage dans les domaines ou l’industrie à enjeux élevés. Les exemples incluent, mais ne sont pas limités à des fins médicales ou financières.
Limitations
Limitations spécifiques de Microsoft 365 Copilot
Intégration et compatibilité : bien que Microsoft 365 Copilot soit conçu pour s’intégrer en toute transparence aux applications Microsoft 365, il peut y avoir des limitations ou des problèmes de compatibilité dans certains environnements, en particulier avec des applications tierces (non-Microsoft) et des configurations personnalisées ou non standard.
Personnalisation et flexibilité : bien que les Microsoft 365 Copilot puissent être personnalisées, il existe des limites quant à leur capacité de personnaliser les flux de travail ou les besoins spécifiques de l’organisation. Les organisations peuvent trouver certaines fonctionnalités ou réponses rigides ou ne pas être entièrement alignées sur les exigences de l’organisation.
Dépendance vis-à-vis de la connectivité Internet : Microsoft 365 Copilot s’appuie sur la connectivité Internet pour fonctionner. Toute interruption de la connectivité peut avoir un impact sur la disponibilité et les performances du service.
Formation et adoption des utilisateurs : l’utilisation efficace de Microsoft 365 Copilot nécessite que les utilisateurs comprennent ses fonctionnalités et ses limitations. Il peut y avoir une courbe d’apprentissage, et les utilisateurs doivent être formés pour interagir efficacement avec le service et en tirer parti.
Intensité des ressources : l’exécution de modèles IA avancés nécessite des ressources de calcul importantes, ce qui peut avoir un impact sur les performances, en particulier dans les environnements à ressources limitées. Les utilisateurs peuvent rencontrer des problèmes de latence ou de performances pendant les pics d’utilisation.
Considérations juridiques et de conformité : les organisations doivent prendre en compte leurs obligations légales et de conformité particulières lors de l’utilisation de Microsoft 365 Copilot, en particulier dans les secteurs réglementés. Microsoft examine les exigences réglementaires qui s’appliquent à Microsoft en tant que fournisseur de la technologie et les traite au sein du produit par le biais d’un processus d’amélioration continue.
Biais, stéréotypes et contenu non basé : en dépit d’une formation intensive par OpenAI et de l’implémentation de contrôles IA responsables par Microsoft sur les invites utilisateur et les sorties LLM, les services IA sont faillibles et probabilistes. Il est donc difficile de bloquer de manière complète tout le contenu inapproprié, ce qui entraîne des biais potentiels, des stéréotypes ou un non-fond dans le contenu généré par l’IA. Pour plus d’informations sur les limitations connues du contenu généré par l’IA, consultez la Note de transparence pour le service Azure OpenAI, qui inclut des références aux llms derrière Microsoft 365 Copilot.
Microsoft 365 Copilot performances
Dans de nombreux systèmes IA, les performances sont souvent définies par rapport à la précision, c’est-à-dire à la fréquence à laquelle le système IA offre une prédiction ou une sortie correcte. Avec Microsoft 365 Copilot, deux utilisateurs différents peuvent examiner la même sortie et avoir des opinions différentes sur son utilité ou sa pertinence, ce qui signifie que les performances de ces systèmes doivent être définies de manière plus flexible. Nous considérons généralement que les performances signifient que l’application fonctionne comme prévu par les utilisateurs.
Meilleures pratiques pour améliorer l’expérience Microsoft 365 Copilot
Pour améliorer les performances par rapport à la précision de Microsoft 365 Copilot sortie, nous recommandons aux organisations de prendre en compte les éléments suivants :
Écrivez de bonnes invites. L’écriture de bonnes invites est essentielle pour obtenir de meilleurs résultats avec Microsoft 365 Copilot. Tout comme il existe des techniques pour aider les gens à communiquer efficacement avec un être humain, il existe des lignes directrices qui peuvent aider les utilisateurs à obtenir de meilleurs résultats avec Microsoft 365 Copilot lors de la rédaction d’invites. Par exemple : inclure des détails, structurer des invites, fournir des instructions positives, itérer et régénérer, et toujours examiner et vérifier les réponses générées par l’IA. Pour plus d’informations, consultez Obtenir de meilleurs résultats avec l’invite Copilot.
Autoriser le référencement du contenu web. Permettre à Microsoft 365 Copilot de référencer du contenu web peut améliorer la qualité, l’exactitude et la pertinence des réponses Microsoft 365 Copilot lorsqu’une réponse bénéficierait d’informations publiques actuelles provenant du web. Notez toutefois que lorsque Microsoft 365 Copilot fait référence à du contenu web, il le fait via le service Recherche Bing et que les pratiques de gestion des données pour les requêtes Recherche Bing sont différentes de la façon dont les données sont gérées par Microsoft 365 Copilot. L’utilisation de Bing est couverte par le Contrat de services Microsoft entre chaque utilisateur et Microsoft, ainsi que la Déclaration de confidentialité Microsoft.
Étendre la mise à la terre dans Microsoft Graph. Microsoft 365 Copilot utilise les données de Microsoft Graph pour baser les réponses dans des données spécifiques à organization comme les e-mails, les conversations, les fichiers et les calendriers. En étendant Microsoft Graph avec des données organisationnelles provenant de sources telles que des systèmes CRM ou des référentiels de fichiers externes, les organisations peuvent inclure des informations pertinentes et spécifiques au contexte supplémentaires qui améliorent davantage la richesse et la précision des réponses Microsoft 365 Copilot.
Mappage, mesure et gestion des risques
Comme d’autres technologies de transformation, l’exploitation des avantages de l’IA n’est pas sans risque, et une partie essentielle du programme d’IA responsable de Microsoft est conçue pour identifier les risques potentiels, mesurer leur propension à se produire et créer des atténuations pour les gérer. Guidés par nos principes d’IA et nos Standard d’IA responsable, et en nous appuyant sur les enseignements tirés d’autres produits d’IA générative et de notre infrastructure d’atténuation centralisée (par exemple, Azure AI Sécurité du Contenu), nous cherchons à mapper, mesurer et gérer les risques potentiels et les mauvaises utilisations de Microsoft 365 Copilot tout en garantissant les utilisations transformatrices et bénéfiques que la nouvelle expérience offre. Dans les sections ci-dessous, nous décrivons notre approche itérative pour cartographier, mesurer et gérer les risques potentiels.
Carte
Au niveau du modèle, notre travail a commencé par des analyses exploratoires de GPT-4 à la fin de l’été 2022. Cela comprenait la réalisation de tests complets en équipe rouge en collaboration avec OpenAI. Ce test a été conçu pour évaluer le fonctionnement de la technologie la plus récente sans aucune protection supplémentaire appliquée. À l’heure actuelle, notre intention spécifique était d’identifier les risques, d’exposer les possibilités potentielles d’utilisation abusive, ainsi que d’identifier les capacités et les limitations. Nos apprentissages combinés sur OpenAI et Microsoft ont contribué aux avancées du développement de modèles et, chez Microsoft, ont permis de mieux comprendre les risques et de contribuer à des stratégies d’atténuation précoces pour toutes nos technologies d’IA générative, y compris les Microsoft 365 Copilot.
En plus des tests d’équipe rouge au niveau du modèle, une équipe multidisciplinaire d’experts a effectué des tests d’équipe rouge au niveau de l’application sur Microsoft 365 Copilot expériences avant de les rendre accessibles au public. Ce processus nous a aidés à mieux comprendre comment le système pouvait être exploité et à améliorer nos mesures d’atténuation. Après la publication, les nouvelles expériences d’IA dans Microsoft 365 Copilot sont intégrées à l’infrastructure de mesure et de test de production existante de l’organization d’ingénierie.
Mesure
Les tests d’équipe rouge peuvent exposer des instances de risques spécifiques, mais en production, les utilisateurs auront des millions de types d’interactions différents avec Microsoft 365 Copilot. En outre, les interactions sont contextuelles et souvent multitours, et l’identification du contenu nuisible au sein d’une interaction est une tâche complexe. Pour mieux comprendre et traiter les risques potentiels pour nos services d’IA générative, y compris les expériences Microsoft 365 Copilot, nous avons développé des évaluations d’IA responsables spécifiques à ces nouvelles expériences d’IA pour mesurer les risques potentiels tels que les jailbreaks, le contenu nuisible et le contenu non basé.
À titre d’exemple, le pipeline de mesure partiellement automatisé mis à jour pour le contenu dangereux comprend deux innovations majeures : la simulation de conversation et l’annotation de conversation automatisée et vérifiée par l’homme. Tout d’abord, les experts en IA responsable ont créé des modèles pour capturer la structure et le contenu des conversations qui pourraient entraîner différents types de contenu nuisible. Ces modèles ont ensuite été donnés à un agent conversationnel, qui a interagi en tant qu’utilisateur hypothétique avec Microsoft 365 Copilot, générant des conversations simulées. Pour déterminer si ces conversations simulées contenaient du contenu nuisible, nous avons pris des directives qui sont généralement utilisées par des linguistes experts pour étiqueter les données et les avons modifiées pour les utiliser par les llms afin d’étiqueter les conversations à grande échelle, en affinant les instructions jusqu’à ce qu’il y ait un accord significatif entre les conversations étiquetées par modèle et les conversations étiquetées à l’homme. Enfin, nous avons utilisé les conversations étiquetées par modèle pour comprendre l’efficacité des Microsoft 365 Copilot à atténuer le contenu dangereux.
Nos pipelines de mesure nous permettent de mesurer rapidement les risques potentiels à grande échelle. À mesure que nous identifions de nouveaux problèmes au cours de la période de préversion et des tests d’équipe rouge en cours, nous continuons d’étendre et d’améliorer les ensembles de mesures pour évaluer les risques supplémentaires.
Gestion
À mesure que nous avons identifié les risques potentiels et les mauvaises utilisations par le biais de processus tels que les tests d’équipe rouge et les avons mesurés, nous avons développé des mesures d’atténuation pour réduire le risque de préjudice. Ci-dessous, nous décrivons certaines de ces atténuations. Nous continuerons à surveiller les expériences Microsoft 365 Copilot pour améliorer les performances et les atténuations des produits.
Mise en production progressive, évaluation continue. Nous nous engageons à apprendre et à améliorer notre approche d’IA responsable en permanence à mesure que nos technologies et le comportement des utilisateurs évoluent. Nous apportons régulièrement des modifications à Microsoft 365 Copilot afin d’améliorer les performances des produits, d’améliorer les atténuations existantes et d’implémenter de nouvelles atténuations en réponse à nos apprentissages.
Mise à la base dans les données métier. L’un des risques connus avec les modèles de langage volumineux est leur capacité à générer du contenu nongroundé, c’est-à-dire du contenu qui semble correct, mais qui n’est pas présent dans les matériaux sources. Une atténuation importante dans Microsoft 365 Copilot consiste à ancrer le contenu généré par l’IA dans des données métier pertinentes auxquelles l’utilisateur a accès en fonction de ses autorisations. Par exemple, sur la base de l’invite de l’utilisateur, Microsoft 365 Copilot est fourni avec des documents professionnels pertinents pour ancrer sa réponse dans ces documents. Toutefois, en résumant le contenu de différentes sources, Microsoft 365 Copilot peuvent inclure dans sa réponse des informations qui ne sont pas présentes dans ses sources d’entrée. En d’autres termes, il peut produire des résultats non creusés. Les utilisateurs doivent toujours faire preuve de prudence et utiliser leur meilleur jugement lors de l’utilisation des sorties de Microsoft 365 Copilot. Nous avons pris plusieurs mesures pour atténuer le risque que les utilisateurs s’appuient sur du contenu non basé sur l’IA. Dans la mesure du possible, les réponses dans Microsoft 365 Copilot basées sur des documents métier incluent des références aux sources permettant aux utilisateurs de vérifier la réponse et d’en savoir plus. Les utilisateurs reçoivent également une notification explicite indiquant qu’ils interagissent avec un système d’IA et sont invités à case activée le matériel source pour les aider à utiliser leur meilleur jugement.
Classifieurs basés sur l’IA et métaprompting pour atténuer les risques potentiels ou les mauvaises utilisations. L’utilisation de llms peut produire du contenu problématique qui peut entraîner des dommages. Il peut s’agir, par exemple, d’une sortie liée à l’automutilation, à la violence, au contenu graphique, au matériel protégé, à des informations inexactes, à des propos haineux ou à des textes susceptibles d’être liés à des activités illégales. Les classifieurs tels que ceux disponibles dans Azure AI Sécurité du Contenu et la métapropting sont deux exemples d’atténuations qui ont été implémentées dans Microsoft 365 Copilot pour aider à réduire le risque de ces types de contenu. Les classifieurs classent le texte pour marquer différents types de contenu potentiellement dangereux dans les invites utilisateur ou les réponses générées. Microsoft 365 Copilot utilise des classifieurs et des filtres de contenu basés sur l’IA. Les indicateurs entraînent des atténuations potentielles, telles que le fait de ne pas renvoyer le contenu généré à l’utilisateur ou de détourner l’utilisateur vers une autre rubrique. La métapropting consiste à donner des instructions au modèle pour guider son comportement, notamment afin que le système se comporte conformément aux principes d’IA de Microsoft et aux attentes des utilisateurs. Par exemple, le métaprompt peut inclure une ligne telle que « communiquer dans la langue de votre choix de l’utilisateur ».
Invite d’enrichissement. Dans certains cas, l’invite d’un utilisateur peut être ambiguë. Lorsque cela se produit, Microsoft 365 Copilot pouvez utiliser le LLM pour vous aider à générer plus de détails dans l’invite afin de s’assurer que les utilisateurs obtiennent la réponse qu’ils recherchent. Cet enrichissement rapide ne repose pas sur les connaissances de l’utilisateur ou de ses recherches antérieures, mais plutôt sur le LLM.
Conception centrée sur l’utilisateur et interventions relatives à l’expérience utilisateur. La conception centrée sur l’utilisateur et les expériences utilisateur sont un aspect essentiel de l’approche de Microsoft en matière d’IA responsable. L’objectif est d’enraciner la conception du produit dans les besoins et les attentes des utilisateurs. À mesure que les utilisateurs interagissent avec Microsoft 365 Copilot pour la première fois, nous proposons divers points de contact conçus pour les aider à comprendre les fonctionnalités du système, à leur révéler que Microsoft 365 Copilot est alimenté par l’IA et à communiquer des limitations.
Divulgation de l’IA. Microsoft 365 Copilot fournit plusieurs points de contact pour la divulgation significative de l’IA où les utilisateurs sont avertis qu’ils interagissent avec un système IA, ainsi que des opportunités d’en savoir plus sur les Microsoft 365 Copilot. Par exemple, lors de l’utilisation de Microsoft 365 Copilot dans l’application Word, le contenu généré par l’IA est fourni avec un avis indiquant que le contenu généré par l’IA peut contenir des erreurs. Donner aux utilisateurs ces connaissances peut les aider à éviter une dépendance excessive sur les sorties générées par l’IA et à en savoir plus sur les forces et les limitations du système.
Provenance du média. Pour toutes les images créées avec les fonctionnalités d’édition de Designer à partir de Microsoft 365 Copilot, nous avons implémenté les informations d’identification du contenu, la provenance basée sur la norme C2PA, pour aider les utilisateurs à identifier si les images ont été modifiées ou générées avec l’IA. Les métadonnées de provenance peuvent être consultées sur le site Informations d’identification du contenu.
Commentaires et évaluation continue. L’expérience Microsoft 365 Copilot s’appuie sur des outils existants qui permettent aux utilisateurs d’envoyer des commentaires sur nos produits. Les utilisateurs peuvent envoyer des commentaires sur le contenu généré par Microsoft 365 Copilot à l’aide du volet qui s’affiche après avoir sélectionné les boutons pouce vers le haut ou pouce vers le bas sur les réponses. Les commentaires envoyés par les utilisateurs sont utilisés pour améliorer nos offres dans le cadre de notre engagement à améliorer les performances des produits. Les administrateurs clients peuvent consulter les commentaires envoyés dans le Centre d’administration Microsoft 365. Nous améliorons et testons continuellement les performances de Microsoft 365 Copilot et d’atténuations spécifiques dans le cadre de notre évaluation et de l’amélioration continues du service. Pour en savoir plus, consultez Fournir des commentaires sur Microsoft Copilot avec les applications Microsoft 365.
Notre approche de la cartographie, de la mesure et de la gestion des risques continuera d’évoluer à mesure que nous en apprendrons davantage, et nous apportons déjà des améliorations en fonction des commentaires que nous avons reçus des clients.
Évaluation et intégration de Microsoft 365 Copilot pour votre organization
Optimisation du déploiement & de l’adoption
Microsoft fournit des outils tels que le tableau de bord Microsoft Copilot pour les clients Microsoft 365 et les rapports dans le Centre d’administration Microsoft 365. Ces outils sont conçus pour aider les organisations à mesurer l’utilisation, l’adoption et l’impact des Microsoft 365 Copilot. Par exemple :
Microsoft 365 Copilot rapport d’utilisation permet aux administrateurs d’afficher un résumé de l’adoption, de la rétention et de l’engagement des utilisateurs avec Microsoft 365 Copilot. Pour plus d’informations, consultez utilisation Microsoft 365 Copilot.
Le score d’adoption offre aux administrateurs des informations sur la façon dont leurs organization fonctionnent avec Microsoft 365 Copilot. Il fournit un score sur une échelle de 100 points, une vue de tableau de bord des données d’adoption & tendances et un outil pour créer des enquêtes auprès des utilisateurs afin de recueillir des commentaires.
Le tableau de bord Experience Insights (préversion) affiche les données de l’utilisation pour donner une vue plus complète de l’expérience d’un organization avec Microsoft 365, notamment des insights sur l’entraînement, des données d’applications et de services et des commentaires des utilisateurs.
En savoir plus sur Microsoft 365 Copilot
- Aperçu de Microsoft 365 Copilot
- Le système Copilot : expliqué par Microsoft
- Données, confidentialité et sécurité pour Microsoft 365 Copilot
- Extensibilité de Microsoft 365 Copilot