Lire en anglais

Partager via


Glossaire pour le noyau sémantique

👋 Bonjour! Nous avons inclus un glossaire ci-dessous avec la terminologie clé.

Terme/Word Définition
Agent Un agent est une intelligence artificielle capable de répondre aux questions et d’automatiser les processus pour les utilisateurs. Il existe un large éventail d’agents qui peuvent être créés, allant de bots de conversation simples à des assistants IA entièrement automatisés. Avec le noyau sémantique, nous vous fournissons les outils permettant de créer des agents de plus en plus sophistiqués qui ne vous obligent pas à être un expert de l’IA.
API Interface de programmation d'applications. Ensemble de règles et de spécifications qui permettent aux composants logiciels de communiquer et d’échanger des données.
Autonome Agents capables de répondre aux stimulations avec une intervention humaine minimale.
Bot conversationnel Conversation arrière simple avec un utilisateur et un agent IA.
Connecteurs Les connecteurs vous permettent d’intégrer des API existantes (interface de programmation d’applications) à des llms (modèles de langage volumineux). Par exemple, un connecteur Microsoft Graph peut être utilisé pour envoyer automatiquement la sortie d’une demande dans un e-mail ou pour créer une description des relations dans un organigramme.
Copilot Agents qui fonctionnent côte à côte avec un utilisateur pour effectuer une tâche.
Noyau Comme pour le système d’exploitation, le noyau est responsable de la gestion des ressources nécessaires à l’exécution de « code » dans une application IA. Cela inclut la gestion des modèles, services et plug-ins IA nécessaires pour que les services de code natif et d’IA s’exécutent ensemble. Étant donné que le noyau dispose de tous les services et plug-ins nécessaires pour exécuter à la fois du code natif et des services IA, il est utilisé par presque tous les composants du KIT SDK de noyau sémantique. Cela signifie que si vous exécutez une invite ou du code dans le noyau sémantique, il passe toujours par un noyau.
LLM Les modèles de langage volumineux sont des outils d’intelligence artificielle qui peuvent résumer, lire ou générer du texte sous la forme de phrases similaires à la façon dont les humains parlent et écrivent. Les llms peuvent être incorporés dans différents produits de Microsoft pour déterrer une valeur utilisateur plus riche.
Mémoire Les souvenirs sont un moyen puissant de fournir un contexte plus large pour votre demande. Historiquement, nous avons toujours appelé la mémoire en tant que composant principal pour le fonctionnement des ordinateurs : pensez à la RAM dans votre ordinateur portable. Pour un processeur qui peut croquer des nombres, l’ordinateur n’est pas si utile, sauf s’il sait quels nombres vous vous souciez. Les souvenirs sont ce qui rend le calcul pertinent pour la tâche à la main.
Plug-ins Pour générer ce plan, le copilote aurait d’abord besoin des fonctionnalités nécessaires pour effectuer ces étapes. C’est là que les plug-ins entrent. Les plug-ins vous permettent de donner à votre agent des compétences via du code. Par exemple, vous pouvez créer un plug-in qui envoie des e-mails, récupère des informations à partir d’une base de données, demande de l’aide, ou même enregistre et récupère des souvenirs à partir de conversations précédentes.
Planificateurs Pour utiliser un plug-in (et pour les connecter à d’autres étapes), le copilote doit d’abord générer un plan. C’est là que viennent les planificateurs. Les planificateurs sont des invites spéciales qui permettent à un agent de générer un plan pour effectuer une tâche. Les planificateurs les plus simples sont simplement une invite qui aide l’agent à utiliser l’appel de fonction pour effectuer une tâche.
Invites Les invites jouent un rôle crucial dans la communication et la direction du comportement des modèles de langage volumineux (LLMs). Ils servent d’entrées ou de requêtes que les utilisateurs peuvent fournir pour susciter des réponses spécifiques d’un modèle.
Ingénierie d’invite En raison de la quantité de contrôle qui existe, l’ingénierie rapide est une compétence essentielle pour toute personne travaillant avec des modèles IA LLM. Il s’agit également d’une compétence qui est en forte demande, car davantage d’organisations adoptent des modèles IA LLM pour automatiser les tâches et améliorer la productivité. Un bon ingénieur prompt peut aider les organisations à tirer le meilleur parti de leurs modèles IA LLM en concevant des invites qui produisent les sorties souhaitées.
RAG Récupération de génération augmentée : terme qui fait référence au processus de récupération de données supplémentaires pour fournir un contexte à un LLM à utiliser lors de la génération d’une réponse (achèvement) à la question d’un utilisateur (invite).

Autres informations de support