Partager via


Glossaire Copilot

copilot : les copilotes sont des assistants en langage naturel qui peuvent vous aider à effectuer des tâches créatives, générer des insights, exécuter des workflows automatisés, etc. Les copilotes sont composés de flux de travail, d’actions, de connaissances et de déclencheurs, alimentés par un ou plusieurs modèles de base et un orchestrateur qui supervise et synchronise les opérations du copilote. Copilots peut alimenter des fonctionnalités d’IA génératives dans des applications, des services web et peut être publié en tant qu’extensions copilot pour étendre et personnaliser Microsoft Copilot.

Copilote personnalisé : est une version personnalisée de Microsoft Copilot qui combine des instructions, des connaissances supplémentaires et/ou personnalisées et toute combinaison de compétences.

Service Azure OpenAI : service d’API qui permet à un développeur d’interroger le meilleur des llms OpenAI avec les garanties que les utilisateurs finaux attendent de Microsoft.

Azure AI Studio : plateforme de développement pro-code offrant une personnalisation et un contrôle complets des applications et des modèles d’IA générative avec des outils visuels et axés sur le code et des modèles de démarrage rapide prédéfinis flexibles et intégrés.

Microsoft Copilot : une interface IA accessible et cohésive qui fournit aux utilisateurs un accès aux fonctionnalités d’IA en fonction de leurs besoins et préférences, tout en s’intégrant aux produits Microsoft pour optimiser la valeur. Microsoft Copilot est votre assistant IA quotidien.

Microsoft Copilot Studio : outil à code faible/sans code qui permet aux utilisateurs d’intégrer facilement l’intelligence artificielle dans n’importe quel produit M365 ou Power Platform, offrant des modèles et des systèmes IA prédéfinis et personnalisés pour des tâches telles que le traitement des formulaires, la détection d’objets, la prédiction et bien plus encore.

Extensions Copilot : une extension copilote personnalisez et améliorez Microsoft Copilot avec des copilotes personnalisés, en activant de nouvelles actions et des connaissances personnalisées pour la mise à la terre dans Copilot. Avec les extensions Copilot, les utilisateurs peuvent bénéficier d’une expérience Microsoft Copilot adaptée aux données, systèmes et flux de travail qu’ils utilisent quotidiennement. Plug-ins : type d’extension copilot. Microsoft a défini un nouveau manifeste de plug-in qui ouvre la possibilité d’écrire un plug-in une seule fois et de l’exécuter n’importe où sur n’importe quelle surface copilote. Les plug-ins doivent être considérés comme un artefact d’extensibilité fonctionnelle atomique qui peut être composé avec n’importe quelle autre extension copilote.

Connecteurs Microsoft Copilot : type d’extension Copilot pour les expériences de code faible et sans code via Microsoft Copilot Studio. Les connecteurs Copilot regroupent des fonctionnalités et des données à partir de connecteurs Microsoft Graph, de connecteurs Power Platform et de Microsoft Fabric.

Connecteurs Microsoft Graph : créés sur mesure par les développeurs ou prédéfinis activés par les administrateurs informatiques qui indexent les données des services LoB, locaux et SaaS dans Microsoft Graph, où ils peuvent améliorer et augmenter les fonctionnalités des services intelligents tels que Microsoft Copilot, Search et ContextIQ, ainsi que les données et le contenu M365.

Connecteurs Power Platform : connecteurs qui permettent à Microsoft Power Platform d’interagir avec des sources de données et des services externes.

Extension de message Teams : fonctionnalité de Microsoft Teams qui permet aux utilisateurs de rechercher ou de lancer des actions dans un service web ou un système externe via un élément d’expérience utilisateur simple appelé carte adaptative. Ceux-ci sont maintenant utilisables en tant que plug-ins.

Invite : entrée d’un modèle IA génératif à partir duquel elle génère une sortie (souvent appelée « réponse » ou « achèvement »). Généralement du texte, mais les modèles multimodaux peuvent utiliser du texte, des images, de l’audio ou une combinaison de ces éléments comme invite.

IA responsable (RAI) : ensemble de normes et de normes que Microsoft cherche à définir pour contribuer à faire progresser l’utilisation sûre et sécurisée de l’IA au profit de la société dans son ensemble par le biais de la gouvernance, de la politique interne, de l’activation, de l’engagement externe et du leadership éclairé.

Modèle de base : modèle IA formé sur des données étendues afin qu’il puisse être appliqué dans un large éventail de cas d’usage pour prendre en charge des tâches telles que le traitement de la langue, la compréhension visuelle, la génération de texte, l’écriture de code, etc. Voir aussi : LLM, SLM.

IA générative : forme d’IA caractérisée par sa capacité à créer un langage naturel ou du contenu plus humain suggéré par des invites d’entrée, y compris la prose, les versets, la musique et les images. GPT : (transformateur préentraîné génératif) classe de modèles de base créés par OpenAI et hébergés par OpenAI et Azure. Un modèle récent dans cette classe est « GPT-4 Turbo ».

La mise à la base est le processus qui consiste à lier des connaissances abstraites dans les systèmes d’IA à du contenu concret spécifique. Il augmente la précision de la compréhension de l’agent IA et de l’interaction avec les données réelles.

LLMs (Large Language Models) : modèles d’IA génératifs qui sont entraînés sur une mine massive de données pour produire des réponses de type humain aux requêtes en langage naturel, généralement par le biais d’un chatbot. Voir aussi : Modèle de base.

LLMOps : flux simplifié pour le développement de bout en bout d’applications alimentées par LLM, de l’idéation à l’opérationnalisation.

Low-Code : implique généralement des interfaces graphiques/visuelles et un codage minimal pour permettre un développement d’applications rapide et accessible. Contrairement aux outils pro-code, la plupart des concepts et technologies sous-jacents, sinon tous, sont abstraits de l’expérience utilisateur.

MLOps : flux simplifié pour le développement de bout en bout d’une application Machine Learning, de la idéation à l’opérationnalisation. MLOps se distingue des LLMOps en termes d’audience, de focus et plus particulièrement de défis liés aux ressources et exigences de traitement du langage naturel. Pro-Code : inclut la possibilité de personnaliser et de contrôler en profondeur les performances du modèle et de l’application. Cela peut inclure des fonctionnalités de configuration et de gestion basées sur l’interface utilisateur graphique en plus de l’interface code-first, nécessitant un niveau de compréhension approfondie des concepts et technologies sous-jacents. RAG – (Récupération-Génération augmentée) est un processus qui permet aux modèles IA de récupérer des informations pertinentes à partir d’une source de connaissances et de les incorporer dans du texte généré. Il s’agit d’un cadre d’intelligence artificielle pour améliorer la qualité des réponses générées par les modèles en ancrer le modèle sur des sources de connaissances externes afin de compléter sa représentation interne de l’information.