Partager via


GetChatCompletionsOptions interface

Ce module contient des modèles que nous voulons vivre côte à côte avec les modèles générés correspondants. Cela est utile pour fournir des modèles orientés client qui ont des noms/types différents de ceux générés.

Extends

Propriétés

azureExtensionOptions

Entrées de configuration pour les extensions de conversation Azure OpenAI qui les utilisent. Cette spécification supplémentaire est uniquement compatible avec Azure OpenAI.

frequencyPenalty

Valeur qui influence la probabilité que des jetons générés apparaissent en fonction de leur fréquence cumulée dans le texte généré. Les valeurs positives rendent les jetons moins susceptibles d’apparaître à mesure que leur fréquence augmente et diminuent la probabilité que le modèle répète les mêmes instructions textuellement.

functionCall

Contrôle la façon dont le modèle répond aux appels de fonction. « none » signifie que le modèle n’appelle pas de fonction et répond à l’utilisateur final. « auto » signifie que le modèle peut choisir entre un utilisateur final ou appeler une fonction. La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction. « none » est la valeur par défaut lorsqu’aucune fonction n’est présente. « auto » est la valeur par défaut si des fonctions sont présentes.

functions

Liste des fonctions pour lesquelles le modèle peut générer des entrées JSON.

logitBias

Carte entre les ID de jeton GPT et les scores de biais qui influence la probabilité que des jetons spécifiques apparaissent dans une réponse de complétion. Les ID de jeton sont calculés via des outils de générateur de jetons externes, tandis que les scores de biais se trouvent dans la plage de -100 à 100 avec des valeurs minimales et maximales correspondant à une interdiction complète ou à une sélection exclusive d’un jeton, respectivement. Le comportement exact d’un score de biais donné varie selon le modèle.

maxTokens

Nombre maximal de jetons à générer.

n

Nombre de choix de saisie semi-automatique de conversation qui doivent être générés pour une réponse de saisie semi-automatique de conversation. Étant donné que ce paramètre peut générer de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez soigneusement et assurez-vous que les paramètres raisonnables pour maxTokens et arrêtez.

presencePenalty

Valeur qui influence la probabilité que des jetons générés apparaissent en fonction de leur présence existante dans le texte généré. Les valeurs positives rendent les jetons moins susceptibles d’apparaître lorsqu’ils existent déjà et augmentent la probabilité que le modèle génère de nouvelles rubriques.

responseFormat

Objet spécifiant le format que le modèle doit générer. Utilisé pour activer le mode JSON.

seed

S’il est spécifié, le système fait tout son possible pour échantillonner de manière déterministe, de sorte que les requêtes répétées avec la même valeur initiale et les mêmes paramètres retournent le même résultat. Le déterminisme n’est pas garanti, et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end. »

stop

Collection de séquences textuelles qui met fin à la génération d’achèvements.

temperature

Température d’échantillonnage à utiliser qui contrôle la créativité apparente des achèvements générés. Les valeurs plus élevées rendent la sortie plus aléatoire, tandis que les valeurs inférieures rendent les résultats plus ciblés et déterministes. Il n’est pas recommandé de modifier la température et le topP pour la même demande d’achèvement, car l’interaction de ces deux paramètres est difficile à prédire.

toolChoice

S’il est spécifié, le modèle configure les outils fournis qu’il peut utiliser pour la réponse de fin de conversation.

tools

Les définitions d’outil disponibles que la demande de saisie semi-automatique de conversation peut utiliser, y compris les fonctions définies par l’appelant.

topP

Une alternative à l’échantillonnage avec la température appelée échantillonnage de noyau. Cette valeur amène le modèle à prendre en compte les résultats des jetons avec la masse de probabilité fournie. Par exemple, une valeur de 0,15 entraîne la prise en compte uniquement des jetons comprenant la masse de probabilité supérieure de 15 %. Il n’est pas recommandé de modifier la température et le topP pour la même demande d’achèvement, car l’interaction de ces deux paramètres est difficile à prédire.

user

Identificateur de l’appelant ou de l’utilisateur final de l’opération. Cela peut être utilisé à des fins de suivi ou de limitation de débit.

Propriétés héritées

abortSignal

Signal qui peut être utilisé pour annuler les demandes.

onResponse

Fonction à appeler chaque fois qu’une réponse est reçue du serveur lors de l’exécution de l’opération demandée. Peut être appelé plusieurs fois.

requestOptions

Options utilisées lors de la création et de l’envoi de requêtes HTTP pour cette opération.

tracingOptions

Options utilisées lorsque le suivi est activé.

Détails de la propriété

azureExtensionOptions

Entrées de configuration pour les extensions de conversation Azure OpenAI qui les utilisent. Cette spécification supplémentaire est uniquement compatible avec Azure OpenAI.

azureExtensionOptions?: AzureExtensionsOptions

Valeur de propriété

frequencyPenalty

Valeur qui influence la probabilité que des jetons générés apparaissent en fonction de leur fréquence cumulée dans le texte généré. Les valeurs positives rendent les jetons moins susceptibles d’apparaître à mesure que leur fréquence augmente et diminuent la probabilité que le modèle répète les mêmes instructions textuellement.

frequencyPenalty?: number

Valeur de propriété

number

functionCall

Contrôle la façon dont le modèle répond aux appels de fonction. « none » signifie que le modèle n’appelle pas de fonction et répond à l’utilisateur final. « auto » signifie que le modèle peut choisir entre un utilisateur final ou appeler une fonction. La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction. « none » est la valeur par défaut lorsqu’aucune fonction n’est présente. « auto » est la valeur par défaut si des fonctions sont présentes.

functionCall?: string | FunctionName

Valeur de propriété

string | FunctionName

functions

Liste des fonctions pour lesquelles le modèle peut générer des entrées JSON.

functions?: FunctionDefinition[]

Valeur de propriété

logitBias

Carte entre les ID de jeton GPT et les scores de biais qui influence la probabilité que des jetons spécifiques apparaissent dans une réponse de complétion. Les ID de jeton sont calculés via des outils de générateur de jetons externes, tandis que les scores de biais se trouvent dans la plage de -100 à 100 avec des valeurs minimales et maximales correspondant à une interdiction complète ou à une sélection exclusive d’un jeton, respectivement. Le comportement exact d’un score de biais donné varie selon le modèle.

logitBias?: Record<string, number>

Valeur de propriété

Record<string, number>

maxTokens

Nombre maximal de jetons à générer.

maxTokens?: number

Valeur de propriété

number

n

Nombre de choix de saisie semi-automatique de conversation qui doivent être générés pour une réponse de saisie semi-automatique de conversation. Étant donné que ce paramètre peut générer de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez soigneusement et assurez-vous que les paramètres raisonnables pour maxTokens et arrêtez.

n?: number

Valeur de propriété

number

presencePenalty

Valeur qui influence la probabilité que des jetons générés apparaissent en fonction de leur présence existante dans le texte généré. Les valeurs positives rendent les jetons moins susceptibles d’apparaître lorsqu’ils existent déjà et augmentent la probabilité que le modèle génère de nouvelles rubriques.

presencePenalty?: number

Valeur de propriété

number

responseFormat

Objet spécifiant le format que le modèle doit générer. Utilisé pour activer le mode JSON.

responseFormat?: ChatCompletionsResponseFormat

Valeur de propriété

seed

S’il est spécifié, le système fait tout son possible pour échantillonner de manière déterministe, de sorte que les requêtes répétées avec la même valeur initiale et les mêmes paramètres retournent le même résultat. Le déterminisme n’est pas garanti, et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end. »

seed?: number

Valeur de propriété

number

stop

Collection de séquences textuelles qui met fin à la génération d’achèvements.

stop?: string[]

Valeur de propriété

string[]

temperature

Température d’échantillonnage à utiliser qui contrôle la créativité apparente des achèvements générés. Les valeurs plus élevées rendent la sortie plus aléatoire, tandis que les valeurs inférieures rendent les résultats plus ciblés et déterministes. Il n’est pas recommandé de modifier la température et le topP pour la même demande d’achèvement, car l’interaction de ces deux paramètres est difficile à prédire.

temperature?: number

Valeur de propriété

number

toolChoice

S’il est spécifié, le modèle configure les outils fournis qu’il peut utiliser pour la réponse de fin de conversation.

toolChoice?: ChatCompletionsNamedToolSelectionUnion

Valeur de propriété

tools

Les définitions d’outil disponibles que la demande de saisie semi-automatique de conversation peut utiliser, y compris les fonctions définies par l’appelant.

tools?: ChatCompletionsToolDefinitionUnion[]

Valeur de propriété

topP

Une alternative à l’échantillonnage avec la température appelée échantillonnage de noyau. Cette valeur amène le modèle à prendre en compte les résultats des jetons avec la masse de probabilité fournie. Par exemple, une valeur de 0,15 entraîne la prise en compte uniquement des jetons comprenant la masse de probabilité supérieure de 15 %. Il n’est pas recommandé de modifier la température et le topP pour la même demande d’achèvement, car l’interaction de ces deux paramètres est difficile à prédire.

topP?: number

Valeur de propriété

number

user

Identificateur de l’appelant ou de l’utilisateur final de l’opération. Cela peut être utilisé à des fins de suivi ou de limitation de débit.

user?: string

Valeur de propriété

string

Détails de la propriété héritée

abortSignal

Signal qui peut être utilisé pour annuler les demandes.

abortSignal?: AbortSignalLike

Valeur de propriété

Hérité de OperationOptions.abortSignal

onResponse

Fonction à appeler chaque fois qu’une réponse est reçue du serveur lors de l’exécution de l’opération demandée. Peut être appelé plusieurs fois.

onResponse?: RawResponseCallback

Valeur de propriété

Hérité de OperationOptions.onResponse

requestOptions

Options utilisées lors de la création et de l’envoi de requêtes HTTP pour cette opération.

requestOptions?: OperationRequestOptions

Valeur de propriété

Hérité de OperationOptions.requestOptions

tracingOptions

Options utilisées lorsque le suivi est activé.

tracingOptions?: OperationTracingOptions

Valeur de propriété

Hérité de OperationOptions.tracingOptions