Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Importante
Os itens marcados (versão prévia) neste artigo estão atualmente em versão prévia pública. Essa versão prévia é fornecida sem um contrato de nível de serviço e não recomendamos isso para cargas de trabalho de produção. Alguns recursos podem não ter suporte ou podem ter restrição de recursos. Para obter mais informações, consulte Termos de Uso Complementares para Versões Prévias do Microsoft Azure.
Nesse artigo, você aprende a criar implantações de modelo Azure OpenAI no portal de IA do Azure Foundry.
O Azure OpenAI no Azure AI Foundry Models oferece um conjunto diversificado de modelos com diferentes funcionalidades e pontos de preço. Ao implantar modelos Azure OpenAI no portal de IA do Azure Foundry, você pode consumir as implantações usando o prompt flow ou outra ferramenta. A disponibilidade do modelo varia de acordo com a região. Para saber mais sobre os detalhes de cada modelo, consulte os modelos do Azure OpenAI.
Para modificar e interagir com um modelo do OpenAI do Azure no playground de IA do Azure Foundry, primeiro você precisa implantar um modelo base do OpenAI do Azure em seu projeto. Depois que o modelo estiver implantado e disponível em seu projeto, você poderá consumir seu ponto de extremidade da API REST como está ou personalizá-lo ainda mais com seus próprios dados e outros componentes (incorporações, índices e muito mais).
Pré-requisitos
Uma assinatura do Azure com uma forma de pagamento válida. As assinaturas gratuitas ou de avaliação do Azure não funcionarão. Caso você não tenha uma assinatura do Azure, crie uma conta paga do Azure para começar.
Implantar um modelo Azure OpenAI do catálogo de modelos
Siga as etapas abaixo para implantar um modelo do Azure OpenAI, como gpt-4o-mini
, em um ponto de extremidade em tempo real do portal do IA do Azure Foundry catálogo de modelos:
- Entre no Azure AI Foundry.
- Se você ainda não estiver em seu projeto, selecione-o.
- Selecione o catálogo de modelos no painel esquerdo.
No filtro Coleções, selecione Azure OpenAI.
Selecione um modelo como
gpt-4o-mini
da coleção Azure OpenAI.Selecione Implantar para abrir a janela de implantação.
Selecione o recurso no qual deseja implantar o modelo. Se você não tiver um recurso, poderá criar um.
Especifique o nome da implantação e modifique outras configurações padrão dependendo dos seus requisitos.
Selecione Implantar.
Você chegará à página de detalhes da implantação. Selecione Abrir no playground.
Selecione Exibir Código para ver exemplos de código que podem ser usados para consumir o modelo implantado no aplicativo.
Implantar um modelo Azure OpenAI do seu projeto
Como alternativa, você pode iniciar a implantação a partir do seu projeto no portal do IA do Azure Foundry.
Dica
Como você pode personalizar o painel esquerdo no portal do Azure AI Foundry, você pode ver itens diferentes dos mostrados nestas etapas. Se você não vir o que está procurando, selecione ... Mais na parte inferior do painel esquerdo.
- Acesse o seu projeto no portal do Azure AI Foundry.
- Na barra lateral esquerda do projeto, acesse Meus ativos>Modelos + pontos de extremidade.
- Selecione + Implantar modelo>Implantar modelo base.
- No filtro Coleções, selecione Azure OpenAI.
- Selecione um modelo como
gpt-4o-mini
da coleção Azure OpenAI. - Selecione Confirmar para abrir a janela de implantação.
- Especifique o nome da implantação e modifique outras configurações padrão dependendo dos seus requisitos.
- Selecione Implantar.
- Você chegará à página de detalhes da implantação. Selecione Abrir no playground.
- Selecione Exibir Código para ver exemplos de código que podem ser usados para consumir o modelo implantado no aplicativo.
Inferência o modelo Azure OpenAI
Para realizar inferência no modelo implantado, você pode usar o playground ou amostras de código. O playground é uma interface baseada na web que permite interagir com o modelo em tempo real. Você pode usar o playground para testar o modelo com diferentes prompts e ver as respostas do modelo.
Para obter mais exemplos de como consumir o modelo implantado na sua aplicação, veja os seguintes inícios rápidos do Azure OpenAI:
Limites de disponibilidade e cota regionais de um modelo
Para modelos do OpenAI do Azure, a cota padrão para modelos varia de acordo com o modelo e a região. Determinados modelos só podem estar disponíveis em algumas regiões. Para obter mais informações sobre limites de disponibilidade e cota, consulte cotas e limites do Azure OpenAI.
Cota para implantar e inferir um modelo
Para modelos do OpenAI do Azure, a implantação e a inferência consomem a quota que é atribuída à sua subscrição por região, por modelo em unidades de Tokens por Minuto (TPM). Ao se inscrever na IA do Azure Foundry, você recebe uma cota padrão para a maioria dos modelos disponíveis. Em seguida, você atribui o TPM a cada implantação à medida que ela é criada, reduzindo assim a cota disponível para esse modelo pela quantidade atribuída. Você pode continuar criando implantações e atribuindo-lhes TPMs até atingir o limite de cota.
Depois de atingir o limite de cota, a única maneira de criar novas implantações desse modelo é:
- Solicite mais cota enviando um formulário de aumento de cota.
- Ajuste a cota alocada em outras implantações de modelo para liberar tokens para novas implantações no Portal do OpenAI do Azure.
Para saber mais sobre cota, consulte a cota do Azure AI Foundry e gerencie a cota do Azure OpenAI.
Conteúdo relacionado
- Saiba mais sobre o que você pode fazer no Azure AI Foundry.
- Obtenha respostas às perguntas frequentes no artigo Perguntas Frequentes sobre a IA do Azure