Compartilhar via


GetChatCompletionsOptions interface

Este módulo contém modelos que queremos viver lado a lado com os modelos gerados correspondentes. Isso é útil para fornecer modelos voltados para o cliente que têm nomes/tipos diferentes dos modelos gerados.

Extends

Propriedades

azureExtensionOptions

As entradas de configuração para extensões de chat do OpenAI do Azure que as usam. Essa especificação adicional só é compatível com o OpenAI do Azure.

frequencyPenalty

Um valor que influencia a probabilidade de tokens gerados aparecerem com base em sua frequência cumulativa no texto gerado. Os valores positivos tornarão os tokens menos propensos a aparecer à medida que sua frequência aumentar e diminuir a probabilidade de o modelo repetir as mesmas instruções textualmente.

functionCall

Controla como o modelo responde a chamadas de função. “none” significa que o modelo não chama uma função e responde ao usuário final. “auto” significa que o modelo pode escolher entre um usuário final ou chamar uma função. Especificar uma função específica por meio {"name": "my_function"} de força o modelo a chamar essa função. “none” é o padrão quando nenhuma função está presente. “auto” é o padrão se as funções estiverem presentes.

functions

Uma lista de funções para as quais o modelo pode gerar entradas JSON.

logitBias

Um mapa entre IDs de token GPT e pontuações de desvio que influenciam a probabilidade de tokens específicos aparecerem em uma resposta de conclusões. As IDs de token são computadas por meio de ferramentas de token externo, enquanto as pontuações de desvio residem no intervalo de -100 a 100 com valores mínimos e máximos correspondentes a uma proibição completa ou seleção exclusiva de um token, respectivamente. O comportamento exato de uma determinada pontuação de desvio varia de acordo com o modelo.

maxTokens

O número máximo de tokens a serem gerados.

n

O número de opções de conclusões de chat que devem ser geradas para uma resposta de conclusões de chat. Como essa configuração pode gerar muitas conclusões, ela pode consumir rapidamente sua cota de token. Use cuidadosamente e garanta configurações razoáveis para maxTokens e pare.

presencePenalty

Um valor que influencia a probabilidade de tokens gerados aparecerem com base em sua presença existente no texto gerado. Os valores positivos tornarão os tokens menos propensos a aparecer quando já existirem e aumentarão a probabilidade do modelo gerar novos tópicos.

responseFormat

Um objeto que especifica o formato que o modelo deve gerar. Usado para habilitar o modo JSON.

seed

Se especificado, o sistema fará o melhor esforço para amostrar deterministicamente de modo que solicitações repetidas com a mesma semente e parâmetros retornem o mesmo resultado. O determinismo não é garantido e você deve se referir ao parâmetro de resposta system_fingerprint para monitorar as alterações no back-end".

stop

Uma coleção de sequências textuais que encerrará a geração de conclusões.

temperature

A temperatura de amostragem a ser usada que controla a criatividade aparente das conclusões geradas. Valores mais altos tornarão a saída mais aleatória, enquanto valores mais baixos tornarão os resultados mais focados e determinísticos. Não é recomendável modificar a temperatura e o topP para a mesma solicitação de conclusões que a interação dessas duas configurações é difícil de prever.

toolChoice

Se especificado, o modelo configurará quais das ferramentas fornecidas ele pode usar para a resposta de conclusões de chat.

tools

As definições de ferramenta disponíveis que a solicitação de conclusões de chat pode usar, incluindo funções definidas pelo chamador.

topP

Uma alternativa à amostragem com temperatura chamada amostragem de núcleo. Esse valor faz com que o modelo considere os resultados de tokens com a massa de probabilidade fornecida. Por exemplo, um valor de 0,15 fará com que apenas os tokens que compõem os 15% principais da massa de probabilidade sejam considerados. Não é recomendável modificar a temperatura e o topP para a mesma solicitação de conclusões que a interação dessas duas configurações é difícil de prever.

user

Um identificador para o chamador ou usuário final da operação. Isso pode ser usado para fins de acompanhamento ou limitação de taxa.

Propriedades herdadas

abortSignal

O sinal que pode ser usado para anular solicitações.

onResponse

Uma função a ser chamada sempre que uma resposta é recebida do servidor durante a execução da operação solicitada. Pode ser chamado várias vezes.

requestOptions

Opções usadas ao criar e enviar solicitações HTTP para essa operação.

tracingOptions

Opções usadas quando o rastreamento está habilitado.

Detalhes da propriedade

azureExtensionOptions

As entradas de configuração para extensões de chat do OpenAI do Azure que as usam. Essa especificação adicional só é compatível com o OpenAI do Azure.

azureExtensionOptions?: AzureExtensionsOptions

Valor da propriedade

frequencyPenalty

Um valor que influencia a probabilidade de tokens gerados aparecerem com base em sua frequência cumulativa no texto gerado. Os valores positivos tornarão os tokens menos propensos a aparecer à medida que sua frequência aumentar e diminuir a probabilidade de o modelo repetir as mesmas instruções textualmente.

frequencyPenalty?: number

Valor da propriedade

number

functionCall

Controla como o modelo responde a chamadas de função. “none” significa que o modelo não chama uma função e responde ao usuário final. “auto” significa que o modelo pode escolher entre um usuário final ou chamar uma função. Especificar uma função específica por meio {"name": "my_function"} de força o modelo a chamar essa função. “none” é o padrão quando nenhuma função está presente. “auto” é o padrão se as funções estiverem presentes.

functionCall?: string | FunctionName

Valor da propriedade

string | FunctionName

functions

Uma lista de funções para as quais o modelo pode gerar entradas JSON.

functions?: FunctionDefinition[]

Valor da propriedade

logitBias

Um mapa entre IDs de token GPT e pontuações de desvio que influenciam a probabilidade de tokens específicos aparecerem em uma resposta de conclusões. As IDs de token são computadas por meio de ferramentas de token externo, enquanto as pontuações de desvio residem no intervalo de -100 a 100 com valores mínimos e máximos correspondentes a uma proibição completa ou seleção exclusiva de um token, respectivamente. O comportamento exato de uma determinada pontuação de desvio varia de acordo com o modelo.

logitBias?: Record<string, number>

Valor da propriedade

Record<string, number>

maxTokens

O número máximo de tokens a serem gerados.

maxTokens?: number

Valor da propriedade

number

n

O número de opções de conclusões de chat que devem ser geradas para uma resposta de conclusões de chat. Como essa configuração pode gerar muitas conclusões, ela pode consumir rapidamente sua cota de token. Use cuidadosamente e garanta configurações razoáveis para maxTokens e pare.

n?: number

Valor da propriedade

number

presencePenalty

Um valor que influencia a probabilidade de tokens gerados aparecerem com base em sua presença existente no texto gerado. Os valores positivos tornarão os tokens menos propensos a aparecer quando já existirem e aumentarão a probabilidade do modelo gerar novos tópicos.

presencePenalty?: number

Valor da propriedade

number

responseFormat

Um objeto que especifica o formato que o modelo deve gerar. Usado para habilitar o modo JSON.

responseFormat?: ChatCompletionsResponseFormat

Valor da propriedade

seed

Se especificado, o sistema fará o melhor esforço para amostrar deterministicamente de modo que solicitações repetidas com a mesma semente e parâmetros retornem o mesmo resultado. O determinismo não é garantido e você deve se referir ao parâmetro de resposta system_fingerprint para monitorar as alterações no back-end".

seed?: number

Valor da propriedade

number

stop

Uma coleção de sequências textuais que encerrará a geração de conclusões.

stop?: string[]

Valor da propriedade

string[]

temperature

A temperatura de amostragem a ser usada que controla a criatividade aparente das conclusões geradas. Valores mais altos tornarão a saída mais aleatória, enquanto valores mais baixos tornarão os resultados mais focados e determinísticos. Não é recomendável modificar a temperatura e o topP para a mesma solicitação de conclusões que a interação dessas duas configurações é difícil de prever.

temperature?: number

Valor da propriedade

number

toolChoice

Se especificado, o modelo configurará quais das ferramentas fornecidas ele pode usar para a resposta de conclusões de chat.

toolChoice?: ChatCompletionsNamedToolSelectionUnion

Valor da propriedade

tools

As definições de ferramenta disponíveis que a solicitação de conclusões de chat pode usar, incluindo funções definidas pelo chamador.

tools?: ChatCompletionsToolDefinitionUnion[]

Valor da propriedade

topP

Uma alternativa à amostragem com temperatura chamada amostragem de núcleo. Esse valor faz com que o modelo considere os resultados de tokens com a massa de probabilidade fornecida. Por exemplo, um valor de 0,15 fará com que apenas os tokens que compõem os 15% principais da massa de probabilidade sejam considerados. Não é recomendável modificar a temperatura e o topP para a mesma solicitação de conclusões que a interação dessas duas configurações é difícil de prever.

topP?: number

Valor da propriedade

number

user

Um identificador para o chamador ou usuário final da operação. Isso pode ser usado para fins de acompanhamento ou limitação de taxa.

user?: string

Valor da propriedade

string

Detalhes das propriedades herdadas

abortSignal

O sinal que pode ser usado para anular solicitações.

abortSignal?: AbortSignalLike

Valor da propriedade

Herdado de OperationOptions.abortSignal

onResponse

Uma função a ser chamada sempre que uma resposta é recebida do servidor durante a execução da operação solicitada. Pode ser chamado várias vezes.

onResponse?: RawResponseCallback

Valor da propriedade

Herdado de OperationOptions.onResponse

requestOptions

Opções usadas ao criar e enviar solicitações HTTP para essa operação.

requestOptions?: OperationRequestOptions

Valor da propriedade

Herdado de OperationOptions.requestOptions

tracingOptions

Opções usadas quando o rastreamento está habilitado.

tracingOptions?: OperationTracingOptions

Valor da propriedade

Herdado de OperationOptions.tracingOptions