Resumo
Neste módulo, aprendeu a otimizar o desempenho de modelos de IA generativa usando estratégias complementares no Microsoft Foundry.
Você aprendeu a:
- Aplique técnicas de engenharia de prompts, incluindo mensagens do sistema, aprendizagem com poucos exemplos e parâmetros de modelo para otimizar a saída do modelo.
- Compreenda quando e como fundamentar um modelo de linguagem usando Geração Aumentada por Recuperação (RAG).
- Identifique quando o ajuste fino de um modelo melhora a consistência comportamental.
- Compare estratégias de otimização e determine quando as combinar.
A principal conclusão é que a engenharia de prompts, o RAG e o ajuste fino não são abordagens concorrentes — são estratégias complementares que respondem a diferentes dimensões do desempenho do modelo. Comece com a engenharia de prompts para orientar o comportamento do modelo, adicione RAG (Retorno de Aprendizagem Generativa) quando for necessária precisão factual com dados específicos do domínio, e considere o ajuste fino quando precisar de um estilo e formato consistentes que a engenharia de prompts sozinha não consiga alcançar de maneira fiável.
No cenário da agência de viagens, a solução mais eficaz pode combinar as três: um modelo afinado que mantenha a voz da marca, um RAG que fundamenta as respostas no catálogo real do hotel, e uma engenharia de prompts que adiciona instruções específicas para a conversa e diretrizes de segurança.
Saber mais
- Introdução à personalização de um grande modelo de linguagem (LLM)
- Técnicas de engenharia de sistemas de prompts
- Design de mensagens do sistema
- Geração Aumentada por Recuperação no Microsoft Foundry
- Personaliza um modelo com ajuste fino
- Considerações de otimização do Microsoft Foundry
- Aumentar grandes modelos de linguagem com RAG ou ajuste fino