Usar prompts para obter conclusões de modelos
Depois que o modelo for implantado, você poderá testar como ele conclui os prompts. Um prompt é a parte de texto de uma solicitação que é enviada para o ponto de extremidade de conclusões do modelo implantado. As respostas são chamadas de conclusões, que podem vir na forma de texto, código ou outros formatos.
Tipos de prompt
Os prompts podem ser agrupados em tipos de solicitações com base na tarefa.
Tipo de tarefa | Exemplo de prompt | Exemplo de conclusão |
---|---|---|
Classificar conteúdo | Tweet: Eu gostei da viagem. Sentimento: |
Positivo |
Gerar novo conteúdo | Lista formas de viajar | 1. Bicicleta 2. Carro ... |
Manter uma conversa | Um assistente de IA amigável | Veja exemplos |
Transformação (conversão de tradução e símbolos) | Inglês: Olá Francês: |
Bonjour |
Resumir conteúdo | Forneça um resumo do conteúdo {text} |
O conteúdo compartilha métodos de aprendizado de máquina. |
Continuar de onde você parou | Uma maneira de cultivar tomates | é plantar sementes. |
Dar respostas factuais | Quantas luas tem a Terra? | Um |
Qualidade da conclusão
Vários fatores afetam a qualidade das conclusões que você obterá da solução de IA generativa.
- A maneira como um prompt é projetado. Saiba mais sobre o projeto de prompts aqui.
- Os parâmetros do modelo (abordados a seguir)
- Os dados nos quais o modelo é treinado, que podem ser adaptados por meio do ajuste fino do modelo com personalização
Você tem mais controle sobre as conclusões retornadas treinando um modelo personalizado em vez de usar a engenharia de prompt e o ajuste de parâmetros.
Como efetuar chamadas
Você pode começar a fazer chamadas para o modelo implantado por meio da API REST, Python, C# ou do Studio. Se seu modelo implantado tiver uma base de modelo GPT-3.5 ou GPT-4, use a Documentação de conclusões de chat, que tem diferentes pontos de extremidade de solicitação e variáveis necessárias do que para outros modelos de base.