Partager via


Outil LLM

L’outil LLM (Large Language Model) dans le flux d’invite vous permet de tirer parti de modèles de langage volumineux largement utilisés comme OpenAI ou Azure OpenAI Service, ou tout modèle de langage pris en charge par l’API d’inférence du modèle Azure AI pour le traitement en langage naturel.

Le flux d’invite fournit quelques API des grands modèles de langage différentes :

  • Achèvement : Les modèles d’achèvement d’OpenAI génèrent du texte en fonction des invites fournies.
  • Conversation : les modèles de conversation d’OpenAI et les modèles de conversation Azure AI facilitent les conversations interactives avec des entrées et des réponses textuelles.

Remarque

Nous avons supprimé l’option embedding du paramètre d’API de l’outil LLM. Vous pouvez utiliser une API d’incorporation avec l’outil d’incorporation. Seule l’authentification basée sur des clés est prise en charge pour la connexion Azure OpenAI. N’utilisez pas de caractères non ascii dans le nom du groupe de ressources de la ressource Azure OpenAI, le flux d’invite n’a pas pris en charge ce cas.

Prérequis

Créer des ressources OpenAI :

Connexions

Configurez des connexions aux ressources provisionnées dans le flux d’invite.

Type Nom Clé API Type de l’API Version de l'API
OpenAI Obligatoire Requis - -
Azure OpenAI - Clé API Requis Obligatoire Obligatoire Requis
Azure OpenAI - Microsoft Entra ID Requis - - Requis
Modèle serverless Requis Requis - -

Conseil

Entrées

Les sections suivantes affichent différentes entrées.

Saisie semi-automatique de texte

Nom Type Description Obligatoire
prompt string Invite de texte pour le modèle de langage. Oui
modèle, deployment_name string Modèle de langage à utiliser. Oui
max_tokens entier Nombre maximal de jetons à générer dans la saisie semi-automatique. Valeur par défaut : 16. Non
température virgule flottante Caractère aléatoire du texte généré. 1 constitue la valeur par défaut. Non
stop list Séquence d’arrêt pour le texte généré. La valeur par défaut est Null. Non
suffix string Texte ajouté à la fin de la saisie semi-automatique. Non
top_p virgule flottante Probabilité d’utiliser le meilleur choix parmi les jetons générés. 1 constitue la valeur par défaut. Non
logprobs entier Nombre de probabilités de journal à générer. La valeur par défaut est Null. Non
echo boolean Valeur qui indique s’il faut renvoyer l’invite dans la réponse. La valeur par défaut est false. Non
presence_penalty virgule flottante Valeur qui contrôle le comportement du modèle pour les expressions répétées. La valeur par défaut est 0. Non
frequency_penalty virgule flottante Valeur qui contrôle le comportement du modèle pour générer des expressions rares. La valeur par défaut est 0. Non
best_of entier Nombre de meilleures saisies semi-automatiques à générer. 1 constitue la valeur par défaut. Non
logit_bias dictionnaire Biais logit pour le modèle de langage. La valeur par défaut est un dictionnaire vide. Non

Conversation

Nom Type Description Obligatoire
prompt string Invite de texte utilisée par le modèle de langue pour une réponse. Oui
modèle, deployment_name string Modèle de langage à utiliser. Ce paramètre n’est pas obligatoire si le modèle est déployé sur un point de terminaison d’API serverless. Oui*
max_tokens entier Nombre maximal de jetons à générer dans la réponse. La valeur par défaut est inf. Non
température virgule flottante Caractère aléatoire du texte généré. 1 constitue la valeur par défaut. Non
stop list Séquence d’arrêt pour le texte généré. La valeur par défaut est Null. Non
top_p virgule flottante Probabilité d’utiliser le meilleur choix parmi les jetons générés. 1 constitue la valeur par défaut. Non
presence_penalty virgule flottante Valeur qui contrôle le comportement du modèle pour les expressions répétées. La valeur par défaut est 0. Non
frequency_penalty virgule flottante Valeur qui contrôle le comportement du modèle pour générer des expressions rares. La valeur par défaut est 0. Non
logit_bias dictionnaire Biais logit pour le modèle de langage. La valeur par défaut est un dictionnaire vide. Non

Sorties

API Type renvoyé Description
Completion string Texte d’une saisie semi-automatique prédite
Conversation instantanée string Texte d’une réponse de conversation

Utiliser l’outil LLM

  1. Configurez et sélectionnez les connexions aux ressources OpenAI ou à un point de terminaison d’API serverless.
  2. Configurez l’API de modèle de langage volumineux et ses paramètres.
  3. Préparer l’invite en suivant les instructions.