Usar prompts para obter conclusões de modelos

Concluído

Depois que o modelo for implantado, você poderá testar como ele conclui os prompts. Um prompt é a parte de texto de uma solicitação que é enviada para o ponto de extremidade de conclusões do modelo implantado. As respostas são chamadas de conclusões, que podem vir na forma de texto, código ou outros formatos.

Tipos de prompt

Os prompts podem ser agrupados em tipos de solicitações com base na tarefa.

Tipo de tarefa Exemplo de prompt Exemplo de conclusão
Classificar conteúdo Tweet: Eu gostei da viagem.
Sentimento:
Positivo
Gerar novo conteúdo Lista formas de viajar 1. Bicicleta
2. Carro ...
Manter uma conversa Um assistente de IA amigável Veja exemplos
Transformação (conversão de tradução e símbolos) Inglês: Olá
Francês:
Bonjour
Resumir conteúdo Forneça um resumo do conteúdo
{text}
O conteúdo compartilha métodos de aprendizado de máquina.
Continuar de onde você parou Uma maneira de cultivar tomates é plantar sementes.
Dar respostas factuais Quantas luas tem a Terra? Um

Qualidade da conclusão

Vários fatores afetam a qualidade das conclusões que você obterá da solução de IA generativa.

Você tem mais controle sobre as conclusões retornadas treinando um modelo personalizado em vez de usar a engenharia de prompt e o ajuste de parâmetros.

Como efetuar chamadas

Você pode começar a fazer chamadas para o modelo implantado por meio da API REST, Python, C# ou do Studio. Se seu modelo implantado tiver uma base de modelo GPT-3.5 ou GPT-4, use a Documentação de conclusões de chat, que tem diferentes pontos de extremidade de solicitação e variáveis necessárias do que para outros modelos de base.