GetChatCompletionsOptions interface
Ce module contient des modèles que nous voulons vivre côte à côte avec les modèles générés correspondants. Cela est utile pour fournir des modèles orientés client qui ont des noms/types différents de ceux générés.
- Extends
Propriétés
azure |
Entrées de configuration pour les extensions de conversation Azure OpenAI qui les utilisent. Cette spécification supplémentaire est uniquement compatible avec Azure OpenAI. |
frequency |
Valeur qui influence la probabilité que des jetons générés apparaissent en fonction de leur fréquence cumulée dans le texte généré. Les valeurs positives rendent les jetons moins susceptibles d’apparaître à mesure que leur fréquence augmente et diminuent la probabilité que le modèle répète les mêmes instructions textuellement. |
function |
Contrôle la façon dont le modèle répond aux appels de fonction. « none » signifie que le modèle n’appelle pas de fonction et répond à l’utilisateur final. « auto » signifie que le modèle peut choisir entre un utilisateur final ou appeler une fonction.
La spécification d’une fonction particulière via |
functions | Liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. |
logit |
Carte entre les ID de jeton GPT et les scores de biais qui influence la probabilité que des jetons spécifiques apparaissent dans une réponse de complétion. Les ID de jeton sont calculés via des outils de générateur de jetons externes, tandis que les scores de biais se trouvent dans la plage de -100 à 100 avec des valeurs minimales et maximales correspondant à une interdiction complète ou à une sélection exclusive d’un jeton, respectivement. Le comportement exact d’un score de biais donné varie selon le modèle. |
max |
Nombre maximal de jetons à générer. |
n | Nombre de choix de saisie semi-automatique de conversation qui doivent être générés pour une réponse de saisie semi-automatique de conversation. Étant donné que ce paramètre peut générer de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez soigneusement et assurez-vous que les paramètres raisonnables pour maxTokens et arrêtez. |
presence |
Valeur qui influence la probabilité que des jetons générés apparaissent en fonction de leur présence existante dans le texte généré. Les valeurs positives rendent les jetons moins susceptibles d’apparaître lorsqu’ils existent déjà et augmentent la probabilité que le modèle génère de nouvelles rubriques. |
response |
Objet spécifiant le format que le modèle doit générer. Utilisé pour activer le mode JSON. |
seed | S’il est spécifié, le système fait tout son possible pour échantillonner de manière déterministe, de sorte que les requêtes répétées avec la même valeur initiale et les mêmes paramètres retournent le même résultat. Le déterminisme n’est pas garanti, et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end. » |
stop | Collection de séquences textuelles qui met fin à la génération d’achèvements. |
temperature | Température d’échantillonnage à utiliser qui contrôle la créativité apparente des achèvements générés. Les valeurs plus élevées rendent la sortie plus aléatoire, tandis que les valeurs inférieures rendent les résultats plus ciblés et déterministes. Il n’est pas recommandé de modifier la température et le topP pour la même demande d’achèvement, car l’interaction de ces deux paramètres est difficile à prédire. |
tool |
S’il est spécifié, le modèle configure les outils fournis qu’il peut utiliser pour la réponse de fin de conversation. |
tools | Les définitions d’outil disponibles que la demande de saisie semi-automatique de conversation peut utiliser, y compris les fonctions définies par l’appelant. |
topP | Une alternative à l’échantillonnage avec la température appelée échantillonnage de noyau. Cette valeur amène le modèle à prendre en compte les résultats des jetons avec la masse de probabilité fournie. Par exemple, une valeur de 0,15 entraîne la prise en compte uniquement des jetons comprenant la masse de probabilité supérieure de 15 %. Il n’est pas recommandé de modifier la température et le topP pour la même demande d’achèvement, car l’interaction de ces deux paramètres est difficile à prédire. |
user | Identificateur de l’appelant ou de l’utilisateur final de l’opération. Cela peut être utilisé à des fins de suivi ou de limitation de débit. |
Propriétés héritées
abort |
Signal qui peut être utilisé pour annuler les demandes. |
on |
Fonction à appeler chaque fois qu’une réponse est reçue du serveur lors de l’exécution de l’opération demandée. Peut être appelé plusieurs fois. |
request |
Options utilisées lors de la création et de l’envoi de requêtes HTTP pour cette opération. |
tracing |
Options utilisées lorsque le suivi est activé. |
Détails de la propriété
azureExtensionOptions
Entrées de configuration pour les extensions de conversation Azure OpenAI qui les utilisent. Cette spécification supplémentaire est uniquement compatible avec Azure OpenAI.
azureExtensionOptions?: AzureExtensionsOptions
Valeur de propriété
frequencyPenalty
Valeur qui influence la probabilité que des jetons générés apparaissent en fonction de leur fréquence cumulée dans le texte généré. Les valeurs positives rendent les jetons moins susceptibles d’apparaître à mesure que leur fréquence augmente et diminuent la probabilité que le modèle répète les mêmes instructions textuellement.
frequencyPenalty?: number
Valeur de propriété
number
functionCall
Contrôle la façon dont le modèle répond aux appels de fonction. « none » signifie que le modèle n’appelle pas de fonction et répond à l’utilisateur final. « auto » signifie que le modèle peut choisir entre un utilisateur final ou appeler une fonction.
La spécification d’une fonction particulière via {"name": "my_function"}
force le modèle à appeler cette fonction.
« none » est la valeur par défaut lorsqu’aucune fonction n’est présente. « auto » est la valeur par défaut si des fonctions sont présentes.
functionCall?: string | FunctionName
Valeur de propriété
string | FunctionName
functions
Liste des fonctions pour lesquelles le modèle peut générer des entrées JSON.
functions?: FunctionDefinition[]
Valeur de propriété
logitBias
Carte entre les ID de jeton GPT et les scores de biais qui influence la probabilité que des jetons spécifiques apparaissent dans une réponse de complétion. Les ID de jeton sont calculés via des outils de générateur de jetons externes, tandis que les scores de biais se trouvent dans la plage de -100 à 100 avec des valeurs minimales et maximales correspondant à une interdiction complète ou à une sélection exclusive d’un jeton, respectivement. Le comportement exact d’un score de biais donné varie selon le modèle.
logitBias?: Record<string, number>
Valeur de propriété
Record<string, number>
maxTokens
Nombre maximal de jetons à générer.
maxTokens?: number
Valeur de propriété
number
n
Nombre de choix de saisie semi-automatique de conversation qui doivent être générés pour une réponse de saisie semi-automatique de conversation. Étant donné que ce paramètre peut générer de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez soigneusement et assurez-vous que les paramètres raisonnables pour maxTokens et arrêtez.
n?: number
Valeur de propriété
number
presencePenalty
Valeur qui influence la probabilité que des jetons générés apparaissent en fonction de leur présence existante dans le texte généré. Les valeurs positives rendent les jetons moins susceptibles d’apparaître lorsqu’ils existent déjà et augmentent la probabilité que le modèle génère de nouvelles rubriques.
presencePenalty?: number
Valeur de propriété
number
responseFormat
Objet spécifiant le format que le modèle doit générer. Utilisé pour activer le mode JSON.
responseFormat?: ChatCompletionsResponseFormat
Valeur de propriété
seed
S’il est spécifié, le système fait tout son possible pour échantillonner de manière déterministe, de sorte que les requêtes répétées avec la même valeur initiale et les mêmes paramètres retournent le même résultat. Le déterminisme n’est pas garanti, et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end. »
seed?: number
Valeur de propriété
number
stop
Collection de séquences textuelles qui met fin à la génération d’achèvements.
stop?: string[]
Valeur de propriété
string[]
temperature
Température d’échantillonnage à utiliser qui contrôle la créativité apparente des achèvements générés. Les valeurs plus élevées rendent la sortie plus aléatoire, tandis que les valeurs inférieures rendent les résultats plus ciblés et déterministes. Il n’est pas recommandé de modifier la température et le topP pour la même demande d’achèvement, car l’interaction de ces deux paramètres est difficile à prédire.
temperature?: number
Valeur de propriété
number
toolChoice
S’il est spécifié, le modèle configure les outils fournis qu’il peut utiliser pour la réponse de fin de conversation.
toolChoice?: ChatCompletionsNamedToolSelectionUnion
Valeur de propriété
tools
Les définitions d’outil disponibles que la demande de saisie semi-automatique de conversation peut utiliser, y compris les fonctions définies par l’appelant.
tools?: ChatCompletionsToolDefinitionUnion[]
Valeur de propriété
topP
Une alternative à l’échantillonnage avec la température appelée échantillonnage de noyau. Cette valeur amène le modèle à prendre en compte les résultats des jetons avec la masse de probabilité fournie. Par exemple, une valeur de 0,15 entraîne la prise en compte uniquement des jetons comprenant la masse de probabilité supérieure de 15 %. Il n’est pas recommandé de modifier la température et le topP pour la même demande d’achèvement, car l’interaction de ces deux paramètres est difficile à prédire.
topP?: number
Valeur de propriété
number
user
Identificateur de l’appelant ou de l’utilisateur final de l’opération. Cela peut être utilisé à des fins de suivi ou de limitation de débit.
user?: string
Valeur de propriété
string
Détails de la propriété héritée
abortSignal
Signal qui peut être utilisé pour annuler les demandes.
abortSignal?: AbortSignalLike
Valeur de propriété
Hérité de OperationOptions.abortSignal
onResponse
Fonction à appeler chaque fois qu’une réponse est reçue du serveur lors de l’exécution de l’opération demandée. Peut être appelé plusieurs fois.
onResponse?: RawResponseCallback
Valeur de propriété
Hérité de OperationOptions.onResponse
requestOptions
Options utilisées lors de la création et de l’envoi de requêtes HTTP pour cette opération.
requestOptions?: OperationRequestOptions
Valeur de propriété
Hérité de OperationOptions.requestOptions
tracingOptions
Options utilisées lorsque le suivi est activé.
tracingOptions?: OperationTracingOptions
Valeur de propriété
Hérité de OperationOptions.tracingOptions
Azure SDK for JavaScript
Commentaires
https://aka.ms/ContentUserFeedback.
Bientôt disponible : Tout au long de 2024, nous allons supprimer progressivement GitHub Issues comme mécanisme de commentaires pour le contenu et le remplacer par un nouveau système de commentaires. Pour plus d’informations, consultezEnvoyer et afficher des commentaires pour