Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Importante
Os itens marcados como (pré-visualização) neste artigo estão neste momento em pré-visualização pública. Esta pré-visualização é fornecida sem um acordo de nível de serviço, e não a recomendamos para trabalhos em produção. Algumas funcionalidades poderão não ser suportadas ou poderão ter capacidades limitadas. Para obter mais informações, veja Termos Suplementares de Utilização para Pré-visualizações do Microsoft Azure.
À medida que você cria com modelos de última geração e cria agentes e aplicativos com eles, os playgrounds do Azure AI Foundry fornecem um ambiente de configuração zero sob demanda projetado para prototipagem rápida, exploração de API e validação técnica antes de confirmar uma única linha de código em sua base de código de produção.
Destaques da experiência com os ambientes interativos do Azure AI Foundry
Alguns dos destaques da experiência nos ambientes de teste do Azure AI Foundry incluem:
- Suporte AgentOps para Avaliações e Rastreamento no playground de Agentes.
- Abrir no VS Code para Chat e área de experimentação de Agentes. Esta funcionalidade poupa-lhe tempo ao importar automaticamente o seu ponto de extremidade e chave do Azure AI Foundry para o VS Code para exemplos de código em várias línguas.
- Imagens Playground 2.0 para gpt-image-1, Stable Diffusion 3.5 Large e Bria 2.3 Fast.
- Playground de áudio para os modelos gpt-4o-audio, gpt-4o-transcribe e gpt-4o-mini-tts .
- Video playground para o Azure OpenAI Sora.
Sugestão
Na captura de tela da página de destino do playground, o painel esquerdo do portal foi personalizado para mostrar a guia Playgrounds. Para saber mais sobre como ver os outros itens no painel esquerdo, consulte Personalizar o painel esquerdo.
Os parques infantis como prelúdio da produção
O desenvolvimento moderno envolve trabalhar em vários sistemas — APIs, serviços, SDKs e modelos de dados — muitas vezes antes de você estar pronto para se comprometer totalmente com uma estrutura, escrever testes ou criar uma infraestrutura. À medida que a complexidade dos ecossistemas de software aumenta, a necessidade de ambientes seguros e leves para validar ideias torna-se crítica. Os parques infantis foram construídos para atender a essa necessidade.
Os playgrounds do Azure AI Foundry fornecem ambientes prontos para uso com todas as ferramentas e recursos necessários pré-instalados, eliminando a necessidade de configurar projetos, gerenciar dependências ou resolver problemas de compatibilidade. Os playgrounds podem acelerar a agilidade dos desenvolvedores validando o comportamento da API, facilitando a transição para a codificação, reduzindo os custos de experimentação e o tempo de entrega, acelerando a integração, otimizando sugestões e muito mais.
Os parques infantis também fornecem clareza rapidamente quando você tem perguntas, fornecendo respostas em segundos, em vez de horas, e permitindo que você teste e valide ideias antes de se comprometer a construir em escala. Por exemplo, os parques infantis são ideais para responder rapidamente a perguntas como:
- Qual é o prompt mínimo que eu preciso para obter a saída que eu quero?
- Essa lógica funcionará antes de escrever uma integração completa?
- Como a latência ou o uso do token mudam com diferentes configurações?
- Qual modelo fornece a melhor relação preço/desempenho antes de transformá-lo em agente?
Abrir na funcionalidade do VS Code
O playground de bate-papo e o playground de agentes permitem que você trabalhe no VS Code, usando o botão Abrir no VS Code que está disponível por meio da extensão do Azure AI Foundry no VS Code.
Disponível nos exemplos de código multilíngue, "Abrir no VS Code" permite a importação automática do seu exemplo de código, ponto de extremidade da API e chave para um espaço de trabalho do VS Code num ambiente /azure
. Essa funcionalidade facilita o trabalho no VS Code IDE do portal do Azure AI Foundry.
Siga estes passos para usar a funcionalidade "Abrir no VS Code" dos playgrounds de chat e de agentes:
Selecione Experimentar o playground de bate-papo para abri-lo. Como alternativa, pode seguir estas etapas no espaço experimental dos agentes selecionando Vamos no cartão do espaço experimental dos agentes.
Se você ainda não tiver uma implantação, selecione Criar nova implantação e implante um modelo como
gpt-4o-mini
.Verifique se a sua implantação está selecionada na caixa Implantação.
Selecione Exibir código para ver o exemplo de código.
Selecione Abrir no VS Code para abrir o VS Code em uma nova guia da janela do navegador.
Você é redirecionado para o ambiente
/azure
do VS Code, onde o seu exemplo de código, endpoint da API e chave já foram importados do playground do Azure AI Foundry.Procure no
READ.ME
arquivo instruções para executar seu modelo.Veja o seu exemplo de código no
run_model.py
.Exiba dependências relevantes no
requirements.txt
arquivo.
Parque infantil dos agentes
O playground de agentes permite que você explore, prototipe e teste agentes sem a necessidade de executar qualquer código. A partir desta página, você pode iterar e experimentar novas ideias rapidamente. Para começar a usar o playground de agentes, consulte Início Rápido: Criar um novo agente.
Sala de bate-papo
O playground de bate-papo é o local para testar os modelos de raciocínio mais recentes do Azure OpenAI, DeepSeek e Meta. Para saber mais sobre o playground de bate-papo, consulte o Guia de Início Rápido: Utilize o playground de bate-papo no portal Azure AI Foundry.
Para todos os modelos de raciocínio, o playground de bate-papo fornece uma lista suspensa de resumo da cadeia de pensamento que permite ver como o modelo estava pensando em sua resposta antes de compartilhar a saída.
Parque infantil de áudio
O playground de áudio (visualização) permite que você use recursos de conversão de texto em fala e transcrição com os modelos de áudio mais recentes do Azure OpenAI.
Siga estas etapas para tentar o recurso de conversão de texto em fala:
Selecione Experimente o espaço de áudio para o abrir.
Se você ainda não tiver uma implantação, selecione Criar nova implantação e implante um modelo como
gpt-4o-mini-tts
.Verifique se a sua implantação está selecionada na caixa de implantação.
Insira um prompt de texto.
Ajuste os parâmetros do modelo, como voz e formato de resposta.
Selecione Gerar para receber uma saída de voz com controlos de reprodução que incluem reproduzir, retroceder, avançar, ajustar a velocidade e o volume.
Transfira o ficheiro de áudio para o computador local.
Siga estas etapas para tentar o recurso de transcrição:
Se você ainda não tiver uma implantação, selecione Criar nova implantação e implante um modelo como
gpt-4o-transcribe
.(Opcional) Inclua uma lista de frases como um mecanismo de texto para guiar sua entrada de áudio.
Insira um arquivo de áudio, carregando um ou gravando o áudio da barra de prompts.
Selecione Gerar transcrição para enviar a entrada de áudio para o modelo e receber uma saída transcrita nos formatos texto e JSON.
parque de vídeo
O Video Playground (visualização) é o seu ambiente de iteração rápida para explorar, refinar e validar fluxos de trabalho de vídeo generativo, projetado para desenvolvedores que necessitam passar da ideia ao protótipo com precisão, controle e velocidade. O espaço de teste oferece uma interface de baixo atrito para testar estruturas de comandos, avaliar a fidelidade de movimento, verificar a consistência do modelo entre quadros e comparar os resultados entre modelos, sem necessidade de código repetitivo ou desperdício de ciclos computacionais. É também uma excelente interface de demonstração para o seu Diretor de Produto e Vice-Presidente de Engenharia.
Todos os pontos de extremidade de modelo são integrados com o Azure AI Content Safety. Como resultado, imagens nocivas e inseguras são filtradas antes de serem exibidas no videoplayground. Se o prompt de texto e a geração de vídeo forem sinalizados pelas políticas de moderação de conteúdo, você receberá uma notificação de aviso.
Você pode usar a área de testes de vídeo com o modelo Azure OpenAI Sora.
Sugestão
Veja o rolo de 60 segundos do vídeo playground para o Azure OpenAI Sora e o DevBlog para saber como transformar seu caso de uso pronto para a empresa por setor.
Siga estes passos para utilizar o video playground:
Atenção
Os vídeos gerados são retidos por 24 horas devido à privacidade dos dados. Transfira vídeos para o seu computador local para uma retenção mais prolongada.
Selecione Experimentar o Video playground para abrir.
Se você ainda não tiver uma implantação, selecione Implantar agora no canto superior direito da página inicial e implante o
sora
modelo.Na página inicial da plataforma de vídeos, comece a explorar os prompts pré-construídos organizados por setor com o filtro. A partir daqui, você pode ver os vídeos em exibição completa e copiar o prompt para construir a partir dele.
Copiar o comando cola-o na barra de comandos. Ajuste os principais controles (por exemplo, proporção ou resolução) para entender profundamente a capacidade de resposta e as restrições específicas do modelo.
Selecione Gerar para gerar um vídeo com base no prompt copiado.
Reescreva a sintaxe do seu prompt de texto com o gpt-4o usando Reescrever com IA.
Ative o recurso Iniciar com um prompt do sistema do setor , escolha um setor e especifique a alteração necessária para o prompt original.
Selecione Atualizar para atualizar o prompt e, em seguida, selecione Gerar para criar um novo vídeo.
Aceda ao separador Histórico de gerações para rever as suas gerações como uma vista de grelha ou lista. Ao selecionar os vídeos, abra-os no modo de tela cheia para imersão total. Observe visualmente os resultados durante ajustes de prompt ou alterações de parâmetros.
No modo de tela cheia, edite o prompt e envie para regeneração.
No modo de tela cheia ou através do botão de opções que aparece quando você passa o mouse sobre o vídeo, baixe os vídeos para o computador local, visualize a tag de informações de geração de vídeo, visualize o código ou exclua o vídeo.
Selecione Exibir código no menu de opções para visualizar o código de exemplo contextual para suas gerações de vídeo em várias linguagens, incluindo Python, JavaScript, C#, JSON, Curl e Go.
Porte os exemplos de código para a produção copiando-os para o VS Code.
O que validar ao experimentar no video playground
Ao usar o video playground ao planejar sua carga de trabalho de produção, você pode explorar e validar os seguintes atributos:
Tradução de Comando para Movimento
- O modelo de vídeo interpreta o meu prompt de uma forma que faça sentido lógico e temporal?
- O movimento é coerente com a ação ou cena descrita?
Consistência do quadro
- Os caracteres, objetos e estilos permanecem consistentes entre quadros?
- Existem artefatos visuais, tremores ou transições não naturais?
Controlo de Cena
- Como posso controlar a composição da cena, o comportamento do assunto ou os ângulos da câmera?
- Posso orientar transições de cena ou ambientes em segundo plano?
Duração e Cronometragem
- Como as diferentes estruturas de prompt afetam a duração e o ritmo do vídeo?
- O vídeo parece muito rápido, muito lento ou muito curto?
Integração de entrada multimodal
- O que acontece quando forneço uma imagem de referência, dados de pose ou entrada de áudio?
- Posso gerar vídeo com sincronização labial para uma determinada narração?
Necessidades de pós-processamento
- Que nível de fidelidade bruta posso esperar antes de precisar de ferramentas de edição?
- Preciso escalonar, estabilizar ou retocar o vídeo antes de usá-lo na produção?
Latência e Desempenho
- Quanto tempo leva para gerar vídeo para diferentes tipos de solicitações ou resoluções?
- Qual é o equilíbrio entre custo e desempenho na produção de clipes de 5s vs. 15s?
Imagens do parque infantil
O espaço de criação de imagens é ideal para programadores que desenvolvem fluxos de geração de imagens. Este playground é um ambiente completo e controlado para experimentos de alta fidelidade projetados para APIs específicas do modelo para gerar e editar imagens.
Sugestão
Veja o rolo de 60 segundos do playground de imagens para gpt-image-1 e nosso DevBlog para saber como transformar seu caso de uso pronto para empresas por setor.
Você pode usar o playground de imagens com estes modelos:
- gpt-image-1 do Azure OpenAI.
- Stable Diffusion 3.5 Large, Stable Image Core, Stable Image Ultra da Stability AI.
- Bria 2.3 Rápido de Bria AI.
Siga estes passos para utilizar o parque de imagens:
- Selecione Experimente o playground de imagens para o abrir.
- Se você ainda não tiver uma implantação, selecione Criar nova implantação e implante um modelo como
gpt-image-1
. - Comece com um prompt de texto pré-criado: selecione uma opção para começar com um prompt de texto pré-criado que preenche automaticamente a barra de prompts.
- Explore os controles de geração específicos da API do modelo após a implantação do modelo: Ajuste os controles-chave (por exemplo, número de variantes, qualidade, força) para entender profundamente a capacidade de resposta e as restrições específicas do modelo.
- Observações lado a lado na vista de grelha: Observe visualmente as saídas em ajustes de prompt ou alterações de parâmetros.
- Transforme com ferramentas de API: A pintura com transformação de texto está disponível para gpt-image-1. Altere partes da sua imagem original com a seleção de pintura. Use prompts de texto para especificar a alteração.
- Porta para produção com exemplos de código multilingues: Use exemplos de código Python, Java, JavaScript, C# com "View Code". Images playground é a sua plataforma de lançamento para o trabalho de desenvolvimento no VS Code.
O que validar ao experimentar num laboratório de imagens
Usando o playground de imagens, você pode explorar e validar o seguinte ao planejar sua carga de trabalho de produção:
Eficácia imediata
- Que tipo de saída visual esse prompt gera para o caso de uso da minha empresa?
- Quão específica ou abstrata pode ser a minha língua e ainda obter bons resultados?
- Será que o modelo entende referências de estilo como "surrealista" ou "cyberpunk" com precisão?
Consistência estilística
- Como faço para manter o mesmo personagem, estilo ou tema em várias imagens?
- Posso iterar em variações do mesmo prompt de base com desvio mínimo?
Ajuste de parâmetros
- Qual é o efeito da alteração de parâmetros do modelo, como escala de orientação, semente, etapas, etc.?
- Como posso equilibrar criatividade versus fidelidade imediata?
Comparação de modelos
- Como os resultados diferem entre os modelos (por exemplo, SDXL vs. DALL· E)?
- Qual modelo tem melhor desempenho para rostos realistas versus composições artísticas?
Controlo de Composição
- O que acontece quando uso restrições espaciais, como caixas delimitadoras ou máscaras de pintura?
- Posso orientar o modelo para layouts ou pontos focais específicos?
Variação de entrada
- Como é que ligeiras alterações na redação imediata ou na estrutura afetam os resultados?
- Qual é a melhor maneira de solicitar simetria, ângulos de câmera específicos ou emoções?
Prontidão para Integração
- Esta imagem atenderá às restrições da interface do usuário do meu produto (proporção, resolução, segurança de conteúdo)?
- O resultado está de acordo com as diretrizes da marca ou as expectativas do cliente?