Compartilhar via


Guia de início rápido: introdução ao uso do GPT-35-Turbo e GPT-4 com o Serviço OpenAI do Azure no IntelliJ

Este artigo mostra como começar a usar o Serviço Azure OpenAI no IntelliJ IDEA. Ele mostra como usar modelos de bate-papo como GPT-3.5-Turbo e GPT-4 para testar e experimentar diferentes parâmetros e fontes de dados.

Pré-requisitos

Instalar e iniciar sessão

As etapas a seguir orientam você pelo processo de entrada do Azure em seu ambiente de desenvolvimento IntelliJ:

  1. Se você não tiver o plug-in instalado, consulte Kit de Ferramentas do Azure para IntelliJ.

  2. Para entrar em sua conta do Azure, navegue até a barra lateral esquerda do Azure Explorer e selecione o ícone de entrada do Azure. Como alternativa, você pode navegar até Ferramentas, expandir o Azure e selecionar Entrar no Azure.

    Screenshot of the IntelliJ IDEA with the Azure Sign In button highlighted.

  3. Na janela Logon do Azure, selecione OAuth 2.0 e selecione Entrar. Para outras opções de entrada, confira as Instruções de entrada do Azure Toolkit for IntelliJ.

  4. No navegador, entre com sua conta que tem acesso ao seu recurso OpenAI e, em seguida, volte para o IntelliJ. Na caixa de diálogo Selecionar Subscrições, selecione a subscrição que pretende utilizar e, em seguida, selecione Selecionar.

Criar e implantar um recurso do Serviço OpenAI do Azure

  1. Após o fluxo de trabalho de entrada, clique com o botão direito do mouse no item Azure OpenAI no Azure Explorer e selecione Criar Serviço Azure OpenAI.

  2. Na caixa de diálogo Criar Serviço OpenAI do Azure, especifique as seguintes informações e selecione OK:

    • Nome: um nome descritivo para seu recurso do Serviço OpenAI do Azure, como MyOpenAIResource. Esse nome também é seu nome de domínio personalizado em seu ponto de extremidade. O nome do recurso só pode incluir caracteres alfanuméricos e hífens e não pode começar ou terminar com um hífen.
    • Região: o local da instância. Alguns modelos só estão disponíveis em regiões específicas. Para obter mais informações, consulte Modelos do Serviço OpenAI do Azure.
    • Sku: os recursos padrão do Azure OpenAI são cobrados com base no uso do token. Para obter mais informações, consulte Preços do Serviço Azure OpenAI.
  3. Antes de usar as conclusões de bate-papo, você precisa implantar um modelo. Clique com o botão direito do mouse na instância do Azure OpenAI e selecione Criar nova implantação. Na caixa de diálogo pop-up Criar Implantação do Azure OpenAI, especifique as seguintes informações e selecione OK:

    • Nome da implantação: escolha um nome cuidadosamente. O nome da implantação é usado em seu código para chamar o modelo usando as bibliotecas de cliente e as APIs REST.
    • Modelo: Selecione um modelo. A disponibilidade do modelo varia de acordo com a região. Para obter uma lista de modelos disponíveis por região, consulte a tabela de resumo do modelo e a seção de disponibilidade de região dos modelos do Serviço OpenAI do Azure.

O kit de ferramentas exibe uma mensagem de status quando a implantação estiver concluída e pronta para uso.

Interaja com o Azure OpenAI usando prompts e configurações

  1. Clique com o botão direito do mouse no recurso Azure OpenAI e selecione Abrir no AI Playground.

  2. Você pode começar a explorar os recursos do OpenAI por meio do playground do Chat do Azure OpenAI Studio no IntelliJ IDEA.

    Screenshot of the IntelliJ IDEA that shows the Chat playground overview window.

Para acionar a conclusão, você pode inserir algum texto como um prompt. O modelo gera a conclusão e tenta corresponder ao seu contexto ou padrão.

Para iniciar uma sessão de chat, siga estes passos:

  1. No painel da sessão de chat, pode começar com um aviso simples como este: "Estou interessado em comprar um novo Surface". Depois de digitar o prompt, selecione Enviar. Você recebe uma resposta semelhante ao exemplo a seguir:

    Great! Which Surface model are you interested in? There are several options available such as the Surface Pro, Surface Laptop, Surface Book, Surface Go, and Surface Studio. Each one has its own unique features and specifications, so it's important to choose the one that best fits your needs.
    

    Screenshot of the IntelliJ IDEA that shows the playground window with a first question and answer.

  2. Insira uma pergunta de acompanhamento como: "Quais modelos suportam GPU?" e selecione Enviar. Você recebe uma resposta semelhante ao exemplo a seguir:

    Most Surface models come with an integrated GPU (Graphics Processing Unit), which is sufficient for basic graphics tasks such as video playback and casual gaming. However, if you're looking for more powerful graphics performance, the Surface Book 3 and the Surface Studio 2 come with dedicated GPUs. The Surface Book 3 has an NVIDIA GeForce GTX GPU, while the Surface Studio 2 has an NVIDIA GeForce GTX 1060 or 1070 GPU, depending on the configuration.
    

    Screenshot of the IntelliJ IDEA that shows the playground window with a first and second question and answer.

  3. Agora que você tem uma conversa básica, selecione Exibir código no painel e você tem uma repetição do código por trás de toda a conversa até agora. Você pode ver os exemplos de código baseados em Java SDK, curl e JSON que correspondem à sua sessão de bate-papo e configurações, conforme mostrado na captura de tela a seguir:

    Screenshot of the IntelliJ IDEA that shows the Sample Code window.

  4. Em seguida, você pode selecionar Copiar para pegar esse código e escrever um aplicativo para concluir a mesma tarefa que você está executando atualmente com o playground.

Configurações

Você pode selecionar a guia Configuração para definir os seguintes parâmetros:

Nome Descrição
Resposta máx. Define um limite no número de tokens por resposta de modelo. A API dá suporte a um máximo de 4096 tokens compartilhados entre o prompt (incluindo mensagem do sistema, exemplos, histórico de mensagens e consulta do usuário) e a resposta do modelo. Um token tem aproximadamente quatro caracteres para um texto típico em inglês.
Temperatura Controla a aleatoriedade. Reduzir a temperatura significa que o modelo produz respostas mais repetitivas e determinísticas. Aumentar a temperatura resulta em respostas mais inesperadas ou criativas. Tente ajustar a temperatura ou as probabilidades superiores, mas não ambas.
Principais probabilidades Semelhante à temperatura, controla a aleatoriedade, mas usa um método diferente. A redução do valor de probabilidades superiores restringe a seleção de tokens do modelo a tokens mais prováveis. Aumentar o valor permite que o modelo escolha entre tokens com alta e baixa probabilidade. Tente ajustar a temperatura ou as probabilidades superiores, mas não ambas.
Parar sequências Faz com que o modelo termine sua resposta em um ponto desejado. A resposta do modelo termina antes da sequência especificada, portanto, não contém o texto da sequência de parada. Para o GPT-35-Turbo, usar <|im_end|> garante que a resposta do modelo não gere uma consulta de acompanhamento do usuário. Você pode incluir até quatro sequências de parada.
Frequência de penalidade Reduz a chance de repetir um token proporcionalmente com base na frequência com que ele aparece no texto até agora. Essa ação diminui a probabilidade de repetir exatamente o mesmo texto em uma resposta.
Penalidade de presença Reduz a chance de repetir qualquer token que apareça no texto até agora. Isso aumenta a probabilidade de introduzir novos tópicos em uma resposta.

Limpar os recursos

Depois de terminar de testar o playground de bate-papo, se quiser limpar e remover um recurso OpenAI, você pode excluir o recurso ou grupo de recursos. Excluir o grupo de recursos também exclui todos os recursos associados a ele. Use as seguintes etapas para limpar recursos:

  1. Para excluir seus recursos do Azure OpenAI, navegue até a barra lateral esquerda do Azure Explorer e localize o item Azure OpenAI.

  2. Clique com o botão direito do mouse no serviço Azure OpenAI que você deseja excluir e selecione Excluir.

  3. Para excluir seu grupo de recursos, visite o portal do Azure e exclua manualmente os recursos em sua assinatura.

Próximas etapas

Para obter mais informações, consulte Saiba como trabalhar com os modelos GPT-35-Turbo e GPT-4.

Para obter mais exemplos, confira o repositório GitHub de Exemplos do Azure OpenAI.