Compartir a través de


GetChatCompletionsOptions interface

Este módulo contiene modelos que queremos vivir en paralelo con los modelos generados correspondientes. Esto es útil para proporcionar modelos orientados al cliente que tengan nombres o tipos diferentes a los modelos generados.

Extends

Propiedades

azureExtensionOptions

Las entradas de configuración de las extensiones de chat de Azure OpenAI que las usan. Esta especificación adicional solo es compatible con Azure OpenAI.

frequencyPenalty

Valor que influye en la probabilidad de que los tokens generados aparezcan en función de su frecuencia acumulativa en el texto generado. Los valores positivos harán que los tokens tengan menos probabilidades de aparecer a medida que aumenta su frecuencia y reducen la probabilidad de que el modelo repita las mismas instrucciones textualmente.

functionCall

Controla cómo responde el modelo a las llamadas de función. "none" significa que el modelo no llama a una función y responde al usuario final. "auto" significa que el modelo puede elegir entre un usuario final o una llamada a una función. Especificar una función determinada a través {"name": "my_function"} de obliga al modelo a llamar a esa función. "none" es el valor predeterminado cuando no hay funciones presentes. "auto" es el valor predeterminado si las funciones están presentes.

functions

Una lista de funciones para las que el modelo puede generar entradas JSON.

logitBias

Mapa entre los identificadores de token gpT y las puntuaciones de sesgo que influyen en la probabilidad de tokens específicos que aparecen en una respuesta de finalización. Los identificadores de token se calculan a través de herramientas de tokenizador externo, mientras que las puntuaciones de sesgo residen en el intervalo de -100 a 100 con valores mínimos y máximos correspondientes a una prohibición completa o selección exclusiva de un token, respectivamente. El comportamiento exacto de una puntuación de sesgo determinada varía según el modelo.

maxTokens

Número máximo de tokens que se van a generar.

n

Número de opciones de finalizaciones de chat que se deben generar para una respuesta de finalizaciones de chat. Dado que esta configuración puede generar muchas finalizaciones, puede consumir rápidamente la cuota de tokens. Use cuidadosamente y asegúrese de una configuración razonable para maxTokens y deténgase.

presencePenalty

Valor que influye en la probabilidad de que aparezcan tokens generados en función de su presencia existente en el texto generado. Los valores positivos harán que los tokens tengan menos probabilidades de aparecer cuando ya existan y aumenten la probabilidad del modelo de generar nuevos temas.

responseFormat

Objeto que especifica el formato que debe generar el modelo. Se usa para habilitar el modo JSON.

seed

Si se especifica, el sistema hará un mejor esfuerzo para muestrear de forma determinista de forma que las solicitudes repetidas con la misma inicialización y parámetros devuelvan el mismo resultado. No se garantiza el determinismo y debe hacer referencia al parámetro de respuesta system_fingerprint para supervisar los cambios en el back-end".

stop

Colección de secuencias textuales que finalizarán la generación de finalizaciones.

temperature

Temperatura de muestreo que se va a usar que controla la creatividad aparente de las finalizaciones generadas. Los valores más altos harán que la salida sea más aleatoria, mientras que los valores inferiores harán que los resultados sean más centrados y deterministas. No se recomienda modificar la temperatura y topP para la misma solicitud de finalización que la interacción de estas dos configuraciones es difícil de predecir.

toolChoice

Si se especifica, el modelo configurará las herramientas proporcionadas que puede usar para la respuesta de finalizaciones de chat.

tools

Las definiciones de herramientas disponibles que puede usar la solicitud de finalizaciones de chat, incluidas las funciones definidas por el autor de la llamada.

topP

Alternativa al muestreo con temperatura denominada muestreo de núcleo. Este valor hace que el modelo tenga en cuenta los resultados de los tokens con la masa de probabilidad proporcionada. Por ejemplo, un valor de 0,15 hará que solo se consideren los tokens que componen el 15 % superior de la masa de probabilidad. No se recomienda modificar la temperatura y topP para la misma solicitud de finalización que la interacción de estas dos configuraciones es difícil de predecir.

user

Identificador del autor de la llamada o del usuario final de la operación. Esto puede usarse con fines de seguimiento o limitación de velocidad.

Propiedades heredadas

abortSignal

Señal que se puede usar para anular las solicitudes.

onResponse

Una función a la que se llamará cada vez que se recibe una respuesta del servidor mientras se realiza la operación solicitada. Se puede llamar varias veces.

requestOptions

Opciones usadas al crear y enviar solicitudes HTTP para esta operación.

tracingOptions

Opciones que se usan al habilitar el seguimiento.

Detalles de las propiedades

azureExtensionOptions

Las entradas de configuración de las extensiones de chat de Azure OpenAI que las usan. Esta especificación adicional solo es compatible con Azure OpenAI.

azureExtensionOptions?: AzureExtensionsOptions

Valor de propiedad

frequencyPenalty

Valor que influye en la probabilidad de que los tokens generados aparezcan en función de su frecuencia acumulativa en el texto generado. Los valores positivos harán que los tokens tengan menos probabilidades de aparecer a medida que aumenta su frecuencia y reducen la probabilidad de que el modelo repita las mismas instrucciones textualmente.

frequencyPenalty?: number

Valor de propiedad

number

functionCall

Controla cómo responde el modelo a las llamadas de función. "none" significa que el modelo no llama a una función y responde al usuario final. "auto" significa que el modelo puede elegir entre un usuario final o una llamada a una función. Especificar una función determinada a través {"name": "my_function"} de obliga al modelo a llamar a esa función. "none" es el valor predeterminado cuando no hay funciones presentes. "auto" es el valor predeterminado si las funciones están presentes.

functionCall?: string | FunctionName

Valor de propiedad

string | FunctionName

functions

Una lista de funciones para las que el modelo puede generar entradas JSON.

functions?: FunctionDefinition[]

Valor de propiedad

logitBias

Mapa entre los identificadores de token gpT y las puntuaciones de sesgo que influyen en la probabilidad de tokens específicos que aparecen en una respuesta de finalización. Los identificadores de token se calculan a través de herramientas de tokenizador externo, mientras que las puntuaciones de sesgo residen en el intervalo de -100 a 100 con valores mínimos y máximos correspondientes a una prohibición completa o selección exclusiva de un token, respectivamente. El comportamiento exacto de una puntuación de sesgo determinada varía según el modelo.

logitBias?: Record<string, number>

Valor de propiedad

Record<string, number>

maxTokens

Número máximo de tokens que se van a generar.

maxTokens?: number

Valor de propiedad

number

n

Número de opciones de finalizaciones de chat que se deben generar para una respuesta de finalizaciones de chat. Dado que esta configuración puede generar muchas finalizaciones, puede consumir rápidamente la cuota de tokens. Use cuidadosamente y asegúrese de una configuración razonable para maxTokens y deténgase.

n?: number

Valor de propiedad

number

presencePenalty

Valor que influye en la probabilidad de que aparezcan tokens generados en función de su presencia existente en el texto generado. Los valores positivos harán que los tokens tengan menos probabilidades de aparecer cuando ya existan y aumenten la probabilidad del modelo de generar nuevos temas.

presencePenalty?: number

Valor de propiedad

number

responseFormat

Objeto que especifica el formato que debe generar el modelo. Se usa para habilitar el modo JSON.

responseFormat?: ChatCompletionsResponseFormat

Valor de propiedad

seed

Si se especifica, el sistema hará un mejor esfuerzo para muestrear de forma determinista de forma que las solicitudes repetidas con la misma inicialización y parámetros devuelvan el mismo resultado. No se garantiza el determinismo y debe hacer referencia al parámetro de respuesta system_fingerprint para supervisar los cambios en el back-end".

seed?: number

Valor de propiedad

number

stop

Colección de secuencias textuales que finalizarán la generación de finalizaciones.

stop?: string[]

Valor de propiedad

string[]

temperature

Temperatura de muestreo que se va a usar que controla la creatividad aparente de las finalizaciones generadas. Los valores más altos harán que la salida sea más aleatoria, mientras que los valores inferiores harán que los resultados sean más centrados y deterministas. No se recomienda modificar la temperatura y topP para la misma solicitud de finalización que la interacción de estas dos configuraciones es difícil de predecir.

temperature?: number

Valor de propiedad

number

toolChoice

Si se especifica, el modelo configurará las herramientas proporcionadas que puede usar para la respuesta de finalizaciones de chat.

toolChoice?: ChatCompletionsNamedToolSelectionUnion

Valor de propiedad

tools

Las definiciones de herramientas disponibles que puede usar la solicitud de finalizaciones de chat, incluidas las funciones definidas por el autor de la llamada.

tools?: ChatCompletionsToolDefinitionUnion[]

Valor de propiedad

topP

Alternativa al muestreo con temperatura denominada muestreo de núcleo. Este valor hace que el modelo tenga en cuenta los resultados de los tokens con la masa de probabilidad proporcionada. Por ejemplo, un valor de 0,15 hará que solo se consideren los tokens que componen el 15 % superior de la masa de probabilidad. No se recomienda modificar la temperatura y topP para la misma solicitud de finalización que la interacción de estas dos configuraciones es difícil de predecir.

topP?: number

Valor de propiedad

number

user

Identificador del autor de la llamada o del usuario final de la operación. Esto puede usarse con fines de seguimiento o limitación de velocidad.

user?: string

Valor de propiedad

string

Detalles de las propiedades heredadas

abortSignal

Señal que se puede usar para anular las solicitudes.

abortSignal?: AbortSignalLike

Valor de propiedad

Heredado de OperationOptions.abortSignal

onResponse

Una función a la que se llamará cada vez que se recibe una respuesta del servidor mientras se realiza la operación solicitada. Se puede llamar varias veces.

onResponse?: RawResponseCallback

Valor de propiedad

Heredado de OperationOptions.onResponse

requestOptions

Opciones usadas al crear y enviar solicitudes HTTP para esta operación.

requestOptions?: OperationRequestOptions

Valor de propiedad

Heredado de OperationOptions.requestOptions

tracingOptions

Opciones que se usan al habilitar el seguimiento.

tracingOptions?: OperationTracingOptions

Valor de propiedad

Heredado de OperationOptions.tracingOptionsOptions