Partilhar via


Quais são as novidades no Azure OpenAI nos Modelos do Azure AI Foundry

Este artigo fornece um resumo das versões mais recentes e das principais atualizações de documentação para o Azure OpenAI.

junho de 2025

Lançados os modelos Codex-mini & O3-Pro

maio de 2025

Lançamento da geração de vídeo Sora (prévia)

Sora (2025-05-02) é um modelo de geração de vídeo da OpenAI que pode criar cenas de vídeo realistas e imaginativas a partir de instruções de texto.

Siga o guia de início rápido da geração de vídeos para começar. Para obter mais informações, consulte o Guia de conceitos de geração de vídeo .

Holofote para escudos rápidos

O realce é uma funcionalidade dos escudos de instrução que aumenta a proteção contra ataques indiretos (como documentos incorporados), marcando documentos de entrada com uma formatação especial para indicar uma confiança reduzida no modelo. Para obter mais informações, consulte a documentação do filtro Prompt shields .

Modelo de roteador (pré-visualização)

O roteador de modelo para o Azure AI Foundry é um modelo de chat de IA implantável que seleciona automaticamente o melhor modelo de chat subjacente para responder a um determinado prompt. Para obter mais informações sobre como o roteador modelo funciona e suas vantagens e limitações, consulte o Guia de conceitos do roteador modelo. Para usar o roteador modelo com a API de conclusão, siga o guia de instruções.

Abril de 2025

Suporte para API em tempo real (pré-visualização) do WebRTC

A API em tempo real (visualização) agora suporta WebRTC, permitindo streaming de áudio em tempo real e interações de baixa latência. Esse recurso é ideal para aplicativos que exigem feedback imediato, como suporte ao cliente ao vivo ou assistentes de voz interativos. Para obter mais informações, consulte a documentação da API em tempo real (visualização).

Lançamento do GPT-image-1 (pré-visualização, acesso limitado)

GPT-image-1 (2025-04-15) é o modelo de geração de imagens mais recente do Azure OpenAI. Ele apresenta grandes melhorias em relação ao DALL-E, incluindo:

  • Melhor em responder a instruções precisas.
  • Renderiza texto de forma confiável.
  • Aceita imagens como entrada, o que possibilita novas funcionalidades de edição de imagem e restauração digital.

Solicitar acesso: Aplicativo modelo de acesso limitado

Siga o guia de instruções de geração de imagens para começar a usar o novo modelo.

Lançados os modelos O4-mini e O3

o4-mini e o3 modelos já estão disponíveis. Estes são os modelos de raciocínio mais recentes do Azure OpenAI que oferecem raciocínio, qualidade e desempenho significativamente melhorados. Para obter mais informações, consulte a página Introdução aos modelos de raciocínio.

GPT-4.1 lançado

GPT 4.1 e GPT 4.1-nano já estão disponíveis. Estes são os modelos mais recentes do Azure OpenAI. O GPT 4.1 tem um limite de contexto de 1 milhão de tokens. Para obter mais informações, consulte a página de modelos.

Modelos de áudio GPT-4O lançados

Novos modelos de áudio alimentados por GPT-4o já estão disponíveis.

  • Os modelos de fala para texto gpt-4o-transcribe e gpt-4o-mini-transcribe são lançados. Use estes modelos através das /audio e /realtime APIs.

  • O gpt-4o-mini-tts sistema de conversão de texto em voz é lançado. Utilize o modelo gpt-4o-mini-tts para geração de texto para fala via a API /audio.

Para obter mais informações sobre os modelos disponíveis, consulte a documentação de modelos e versões.

Março de 2025

API de Respostas & modelo de pré-visualização de uso do computador

A API de Respostas é uma nova API com estado do Azure OpenAI. Ele reúne os melhores recursos da API de conclusão de bate-papo e assistentes em uma experiência unificada. A API de respostas também adiciona suporte para o novo computer-use-preview modelo que alimenta a capacidade de uso do computador .

Para o acesso ao computer-use-preview registro é necessário, e o acesso será concedido com base nos critérios de elegibilidade da Microsoft. Os clientes que têm acesso a outros modelos de acesso limitado ainda precisarão solicitar acesso para esse modelo.

Solicitar acesso: computer-use-preview aplicativo modelo de acesso limitado

Para obter mais informações sobre recursos de modelo e disponibilidade de região, consulte a documentação de modelos.

Gif animado do modelo de pré-visualização por computador integrado com Playwright.

Código de demonstração de integração do Playwright.

Transbordo provisionado (pré-visualização)

O Spillover gere as flutuações de tráfego em implementações provisionadas direcionando os excedentes para uma implementação padrão designada. Para saber mais sobre como maximizar a utilização das suas implementações provisionadas com spillover, consulte Gerir tráfego com spillover para implementações provisionadas (Pré-visualização).

Especificar configurações de filtragem de conteúdo

Além da configuração de filtragem de conteúdo no nível de implantação, agora também fornecemos um cabeçalho de solicitação que permite especificar sua configuração personalizada no momento da solicitação para cada chamada de API. Para obter mais informações, consulte Usar filtros de conteúdo (visualização).

fevereiro de 2025

Pré-visualização GPT-4.5

O modelo GPT mais recente que se destaca em diversas tarefas de texto e imagem está agora disponível no Azure OpenAI.

Para obter mais informações sobre recursos de modelo e disponibilidade de região, consulte a documentação de modelos.

API de completamentos armazenados

As finalizações armazenadas permitem capturar o histórico de conversas de sessões de conclusão de bate-papo para usar como conjuntos de dados para avaliações e ajustes.

Implantações padrão de zona de dados O3-Mini

o3-mini agora está disponível para implantações padrão em nível global e de zona de dados para clientes com acesso limitado registrados.

Para obter mais informações, consulte nosso guia de modelo de raciocínio.

Mini áudio do GPT-4O lançado

O gpt-4o-mini-audio-preview modelo (2024-12-17) é o mais recente modelo de preenchimento de áudio. Para obter mais informações, consulte o guia de início rápido de geração de áudio.

O modelo gpt-4o-mini-realtime-preview (2024-12-17) é o mais recente modelo de áudio em tempo real. Os modelos em tempo real utilizam o mesmo modelo de áudio GPT-4o subjacente da API de conclusões, mas são otimizados para interações de áudio em tempo real com baixa latência. Para obter mais informações, consulte o início rápido de áudio em tempo real.

Para obter mais informações sobre os modelos disponíveis, consulte a documentação de modelos e versões.

janeiro de 2025

O3-mini lançado

o3-mini (2025-01-31) é o mais recente modelo de raciocínio, oferecendo capacidades de raciocínio melhoradas. Para obter mais informações, consulte nosso guia de modelo de raciocínio.

compleções de áudio de GPT-4o

O gpt-4o-audio-preview modelo já está disponível para implantações globais nas regiões Leste dos EUA 2 e Suécia Central. Use o gpt-4o-audio-preview modelo para geração de áudio.

O gpt-4o-audio-preview modelo introduz a modalidade de áudio na API existente /chat/completions . O modelo de áudio expande o potencial para aplicações de IA em interações baseadas em texto e voz e análise de áudio. As modalidades suportadas no gpt-4o-audio-preview modelo incluem: texto, áudio e texto + áudio. Para obter mais informações, consulte o guia de início rápido de geração de áudio.

Observação

A API Realtime usa o mesmo modelo de áudio GPT-4o subjacente que a API de conclusões, mas está otimizada para interações de áudio em tempo real de baixa latência.

API de tempo real GPT-4o 2024-12-17

A gpt-4o-realtime-preview versão do modelo 2024-12-17 está disponível para implantações globais nas regiões Leste dos EUA 2 e Suécia Central. Use o gpt-4o-realtime-preview modelo de versão 2024-12-17 em vez do modelo de gpt-4o-realtime-preview versão 2024-10-01-preview para interações de áudio em tempo real.

  • Adicionado suporte para armazenamento em cache de prompt com o modelo gpt-4o-realtime-preview.
  • Adicionado suporte para novas vozes. Os gpt-4o-realtime-preview modelos agora suportam as seguintes vozes: "alloy", "ash", "balada", "coral", "echo", "sage", "shimmer", "verse".
  • Os limites de tarifa não se baseiam mais em conexões por minuto. O limite de taxa agora é baseado em RPM (solicitações por minuto) e TPM (tokens por minuto) para o gpt-4o-realtime-preview modelo. Os limites de taxa para cada implementação do modelo gpt-4o-realtime-preview são 100K TPM e 1K RPM. Durante a visualização, o portal e as APIs do Azure AI Foundry podem mostrar incorretamente limites de taxa diferentes. Mesmo se você tentar definir um limite de taxa diferente, o limite de taxa real será de 100K TPM e 1K RPM.

Para mais informações, consulte o início rápido do áudio em tempo real do GPT-4o e o guia de como fazer.

Dezembro de 2024

O1 Modelo de raciocínio liberado para acesso limitado

O modelo mais recente o1 já está disponível para acesso à API e implantação do modelo. O registro é necessário e o acesso será concedido com base nos critérios de elegibilidade da Microsoft. Os clientes que se inscreveram anteriormente e receberam acesso ao o1-preview, não precisam se recandidatar, pois estão automaticamente na lista de espera para o modelo mais recente.

Solicitar acesso: aplicativo modelo de acesso limitado

Para saber mais sobre os modelos avançados o1 da série, consulte a seção Introdução aos modelos de raciocínio da série o1.

Disponibilidade da região

Modelo Região
o1
(Versão: 2024-12-17)
Leste dos EUA 2 (Padrão Global)
Suécia Central (Padrão Global)

Afinação de Preferências (pré-visualização)

A otimização de preferência direta (DPO) é uma nova técnica de alinhamento para modelos de linguagem grande, projetada para ajustar os pesos dos modelos com base nas preferências humanas. Ao contrário da aprendizagem por reforço a partir do feedback humano (RLHF), o DPO não requer o ajuste de um modelo de recompensa e usa dados mais simples (preferências binárias) para treinamento. Este método é computacionalmente mais leve e rápido, tornando-o igualmente eficaz no alinhamento e sendo mais eficiente. O DPO é especialmente útil em cenários onde elementos subjetivos como tom, estilo ou preferências específicas de conteúdo são importantes. Temos o prazer de anunciar a visualização pública do DPO no Azure OpenAI, começando com o modelo gpt-4o-2024-08-06.

Para ajustar a disponibilidade da região do modelo, consulte a página de modelos.

Conclusões armazenadas e destilação

As finalizações armazenadas permitem capturar o histórico de conversas de sessões de conclusão de bate-papo para usar como conjuntos de dados para avaliações e ajustes.

GPT-4o 2024-11-20

gpt-4o-2024-11-20 agora está disponível para implantação padrão global em:

  • E.U.A. Leste
  • E.U.A. Leste 2
  • E.U.A. Centro-Norte
  • E.U.A. Centro-Sul
  • E.U.A. Oeste
  • E.U.A. Oeste 3
  • Suécia Central

NOVO tipo de implantação provisionada de zona de dados

As implantações provisionadas de zona de dados estão disponíveis no mesmo recurso do Azure OpenAI que todos os outros tipos de implantação do Azure OpenAI, mas permitem que você aproveite a infraestrutura global do Azure para rotear dinamicamente o tráfego para o data center dentro da zona de dados definida pela Microsoft com a melhor disponibilidade para cada solicitação. As implantações provisionadas de zona de dados fornecem capacidade de processamento de modelo reservado para uma taxa de transferência alta e previsível usando a infraestrutura do Azure dentro de zonas de dados especificadas pela Microsoft. As implantações provisionadas de zona de dados são suportadas em modelos gpt-4o-2024-08-06, gpt-4o-2024-05-13 e gpt-4o-mini-2024-07-18.

Para obter mais informações, consulte o guia de tipos de implantação.

Novembro de 2024

Ajuste Fino de Visão GA

O ajuste fino de visão com o GPT-4o (06-08-2024) está agora geralmente disponível (GA).

O ajuste fino da visão permite que você adicione imagens aos seus dados de treinamento JSONL . Assim como você pode enviar uma ou várias entradas de imagem para finalizações de bate-papo, você pode incluir esses mesmos tipos de mensagem em seus dados de treinamento. As imagens podem ser fornecidas como URLs ou como imagens codificadas base64.

Para ajustar a disponibilidade da região do modelo, consulte a página de modelos.

NOVO monitoramento de abuso de IA

Estamos introduzindo novas formas de monitoramento de abuso que aproveitam LLMs para melhorar a eficiência da deteção de uso potencialmente abusivo do Azure OpenAI e para habilitar o monitoramento de abuso sem a necessidade de revisão humana de prompts e conclusão. Saiba mais, consulte Monitoramento de abuso.

Avisos e conclusões que são sinalizados através da classificação de conteúdo e/ou identificados como parte de um padrão de uso potencialmente abusivo são submetidos a um processo de revisão adicional para ajudar a confirmar a análise do sistema e informar as decisões de ação. Nossos sistemas de monitoramento de abuso foram expandidos para permitir a revisão por LLM por padrão e por humanos quando necessário e apropriado.

Outubro de 2024

NOVO tipo de implantação padrão de zona de dados

As implantações padrão da zona de dados estão disponíveis no mesmo recurso do Azure OpenAI que todos os outros tipos de implantação do Azure OpenAI, mas permitem que você aproveite a infraestrutura global do Azure para rotear dinamicamente o tráfego para o data center dentro da zona de dados definida pela Microsoft com a melhor disponibilidade para cada solicitação. O padrão de zona de dados fornece cotas padrão mais altas do que nossos tipos de implantação baseados em geografia do Azure. Há suporte para implantações padrão de zona de dados em gpt-4o-2024-08-06, gpt-4o-2024-05-13e gpt-4o-mini-2024-07-18 modelos.

Para obter mais informações, consulte o guia de tipos de implantação.

Execução Global Disponibilidade Geral

O lote global do Azure OpenAI agora está disponível para o público em geral.

A API de Lote do Azure OpenAI foi projetada para lidar com tarefas de processamento de grande escala e alto volume de forma eficiente. Processe grupos assíncronos de solicitações com cota separada, com prazo de entrega de 24 horas, a um custo 50% menor do que o padrão global. Com o processamento em lote, em vez de enviar uma solicitação de cada vez, você envia um grande número de solicitações em um único arquivo. As solicitações globais em lote têm uma cota de tokens enfileirada separada, evitando qualquer interrupção das suas cargas de trabalho online.

Os principais casos de utilização incluem:

  • Large-Scale Processamento de Dados: Analise rapidamente conjuntos de dados extensos em paralelo.

  • Geração de conteúdo: Crie grandes volumes de texto, como descrições de produtos ou artigos.

  • Revisão e Resumo de Documentos: Automatize a revisão e o resumo de documentos extensos.

  • Automação do Suporte ao Cliente: Gerencie simultaneamente múltiplas consultas para proporcionar respostas mais rápidas.

  • Extração e Análise de Dados: Extraia e analise informações de grandes quantidades de dados não estruturados.

  • Tarefas de Processamento de Linguagem Natural (NLP): Execute tarefas como análise de sentimento ou tradução em grandes conjuntos de dados.

  • Marketing e Personalização: Crie conteúdo personalizado e recomendações em escala.

Para obter mais informações sobre como iniciar implantações globais em lote.

Modelos O1-Preview e O1-mini de acesso limitado

Os o1-preview modelos e o1-mini agora estão disponíveis para acesso à API e implantação de modelos. O registro é necessário e o acesso será concedido com base nos critérios de elegibilidade da Microsoft.

Solicitar acesso: aplicativo modelo de acesso limitado

Os clientes que já foram aprovados e têm acesso ao modelo por meio do playground de acesso antecipado não precisam se inscrever novamente, você receberá automaticamente acesso à API. Depois que o acesso for concedido, você precisará criar uma implantação para cada modelo.

Suporte API:

O suporte para os modelos da série o1 foi adicionado na versão 2024-09-01-previewAPI.

O max_tokens parâmetro foi preterido e substituído pelo novo max_completion_tokens parâmetro. Os modelos da série O1 só funcionam com o max_completion_tokens parâmetro.

Disponibilidade da região:

Os modelos estão disponíveis para implantação padrão e padrão global no Leste dos EUA2 e no Centro da Suécia para clientes aprovados.

Nova API GPT-4o de Antevisão Pública em Tempo Real para Fala e Áudio

O áudio GPT-4o do Azure OpenAI faz parte da família de modelos GPT-4o que suporta interações conversacionais com baixa latência, "voz de entrada, voz de saída". A API de áudio realtime GPT-4o foi projetada para lidar com interações conversacionais em tempo real e de baixa latência, tornando-se uma ótima opção para casos de uso envolvendo interações ao vivo entre um usuário e um modelo, como agentes de suporte ao cliente, assistentes de voz e tradutores em tempo real.

O gpt-4o-realtime-preview modelo está disponível para implantações globais nas regiões Leste dos EUA 2 e Suécia Central.

Para obter mais informações, consulte o início rápido do áudio em tempo real do GPT-4o.

Atualizações globais para suporte em lote

O lote global agora suporta GPT-4o (2024-08-06). Consulte o guia de introdução ao processamento em lote global para obter mais informações.

Setembro de 2024

Atualizações do Azure OpenAI Studio UX

A partir de 19 de setembro de 2024, quando você acessa o Azure OpenAI Studio , não vê mais o Azure OpenAI Studio herdado por padrão. Se necessário, você ainda poderá voltar à experiência anterior usando o botão Alternar para a aparência antiga na barra superior da interface do usuário nas próximas semanas. Se você voltar para o portal herdado do Azure AI Foundry, será útil preencher o formulário de comentários para nos informar por quê. Estamos monitorando ativamente esse feedback para melhorar a nova experiência.

GPT-4o 2024-08-06 implementações provisionadas

O GPT-4o 2024-08-06 já está disponível para implantações provisionadas no Leste dos EUA, Leste dos EUA 2, Centro-Norte dos EUA e Suécia Central. Também está disponível para implantações provisionadas globais.

Para obter as informações mais recentes sobre a disponibilidade do modelo, consulte a página de modelos.

NOVO Tipo de implantação provisionada global

As implantações globais estão disponíveis nos mesmos recursos do Azure OpenAI que os tipos de implantação não globais, mas permitem que você aproveite a infraestrutura global do Azure para rotear dinamicamente o tráfego para o data center com a melhor disponibilidade para cada solicitação. As implantações provisionadas globais fornecem capacidade de processamento de modelo reservado para uma taxa de transferência alta e previsível usando a infraestrutura global do Azure. Há suporte para implantações provisionadas globais nos modelos gpt-4o-2024-08-06 e gpt-4o-mini-2024-07-18.

Para obter mais informações, consulte o guia de tipos de implantação.

NOVOS modelos o1-preview e o1-mini disponíveis para acesso limitado

Os modelos Azure OpenAI o1-preview e o1-mini são projetados para lidar com tarefas de raciocínio e resolução de problemas com maior foco e capacidade. Esses modelos gastam mais tempo processando e entendendo a solicitação do usuário, tornando-os excepcionalmente fortes em áreas como ciência, codificação e matemática em comparação com iterações anteriores.

Principais capacidades da série o1

  • Geração de código complexa: Capaz de gerar algoritmos e lidar com tarefas avançadas de codificação para dar suporte aos desenvolvedores.
  • Resolução Avançada de Problemas: Ideal para sessões de brainstorming abrangentes e para enfrentar desafios multifacetados.
  • Comparação complexa de documentos: Perfeita para analisar contratos, arquivos de casos ou documentos legais para identificar diferenças sutis.
  • Acompanhamento de instruções e gerenciamento de fluxo de trabalho: Particularmente eficaz para gerenciar fluxos de trabalho que exigem contextos mais curtos.

Variantes de modelo

  • o1-preview: o1-preview é o mais capaz dos modelos da série o1.
  • o1-mini: o1-mini é o mais rápido e mais barato dos o1 modelos da série.

Versão do modelo: 2024-09-12

Solicitar acesso: aplicativo modelo de acesso limitado

Limitações

Os o1 modelos da série estão atualmente em pré-visualização e não incluem alguns recursos disponíveis em outros modelos, como compreensão de imagem e saídas estruturadas que estão disponíveis no modelo GPT-4o mais recente. Para muitas tarefas, os modelos GPT-4o geralmente disponíveis ainda podem ser mais adequados.

Segurança

A OpenAI incorporou medidas de segurança adicionais nos o1 modelos, incluindo novas técnicas para ajudar os modelos a recusar pedidos inseguros. Estes avanços fazem da o1 série alguns dos modelos mais robustos disponíveis.

Disponibilidade

Os o1-preview e o1-mini estão disponíveis na região Leste dos EUA2 para acesso limitado através do playground de acesso antecipado no portal Azure AI Foundry. O processamento de dados para os o1 modelos pode ocorrer em uma região diferente daquela em que eles estão disponíveis para uso.

Para experimentar os modelos o1-preview e o1-mini no espaço de acesso antecipado, é necessário registar-se, e o acesso será concedido com base nos critérios de elegibilidade da Microsoft.

Solicitar acesso: aplicativo modelo de acesso limitado

Uma vez concedido o acesso, você precisará:

  1. Navegue para https://ai.azure.com/resources e selecione um recurso na região eastus2. Se você não tiver um recurso do Azure OpenAI nessa região, precisará criar um.
  2. Depois de o eastus2 recurso do Azure OpenAI estar selecionado, no painel superior esquerdo, em Playgrounds, selecione parque de acesso antecipado (pré-visualização).

Agosto de 2024

GPT-4o 2024-08-06 saídas estruturadas

Implementações provisórias do GPT-4o mini

O GPT-4o mini agora está disponível para implantações provisionadas no Leste do Canadá, Leste dos EUA, Leste dos EUA2, Centro-Norte dos EUA e Suécia Central.

Para obter as informações mais recentes sobre a disponibilidade do modelo, consulte a página de modelos.

Ajuste fino de GPT-4o (Pré-visualização Pública)

O aperfeiçoamento do GPT-4o está agora disponível para o Azure OpenAI em pré-visualização pública no Centro-Norte dos EUA e na Suécia Central.

Para obter mais informações, consulte nossa postagem no blog.

Nova versão da API de pré-visualização

A versão 2024-07-01-preview da API é a mais recente publicação da API de criação e inferência do plano de dados. Ele substitui a versão 2024-05-01-preview da API e adiciona suporte para:

Para mais informações, consulte a nossa documentação de referência

Disponibilidade regional do GPT-4o mini

  • O GPT-4o mini está disponível para implementação padrão e padrão global nas regiões Leste dos EUA e Centro da Suécia.
  • O GPT-4o mini está disponível para implantação global em lote nas regiões Leste dos EUA, Suécia Central e Oeste dos EUA.

Guia de avaliações

Modelo mais recente GPT-4o disponível no ambiente de teste de acesso antecipado (pré-visualização)

Em 6 de agosto de 2024, a OpenAI anunciou a versão mais recente de sua versão 2024-08-06principal do modelo GPT-4o. GPT-4o 2024-08-06 tem todas as capacidades da versão anterior, bem como:

  • Uma capacidade melhorada para suportar resultados estruturados complexos.
  • Os tokens de saída máxima foram aumentados de 4.096 para 16.384.

Os clientes do Azure podem testar o GPT-4o 2024-08-06 hoje no novo ambiente de testes de acesso antecipado do Azure AI Foundry (pré-visualização).

Ao contrário do playground de acesso antecipado anterior, o playground de acesso antecipado (visualização) do portal do Azure AI Foundry não exige que você tenha um recurso em uma região específica.

Observação

Os prompts e as conclusões geradas através do playground de acesso antecipado (preview) podem ser processados em qualquer região do Azure OpenAI e atualmente estão sujeitos a um limite de 10 solicitações por minuto por assinatura Azure. Este limite pode mudar no futuro.

O monitoramento de abuso do Azure OpenAI está habilitado para todos os usuários de playground de acesso antecipado, mesmo se aprovado para modificação; Os filtros de conteúdo padrão estão habilitados e não podem ser modificados.

Para testar o GPT-4o 2024-08-06, inicie sessão no ambiente de testes de acesso antecipado da IA do Azure (visualização) usando esta ligação.

Implantações globais em lote já estão disponíveis

A API de Lote do Azure OpenAI foi projetada para lidar com tarefas de processamento de grande escala e alto volume de forma eficiente. Processe grupos assíncronos de solicitações com cota separada, com prazo de entrega de 24 horas, a um custo 50% menor do que o padrão global. Com o processamento em lote, em vez de enviar uma solicitação de cada vez, você envia um grande número de solicitações em um único arquivo. As solicitações globais em lote têm uma cota de tokens enfileirada separada, evitando qualquer interrupção das suas cargas de trabalho online.

Os principais casos de utilização incluem:

  • Large-Scale Processamento de Dados: Analise rapidamente conjuntos de dados extensos em paralelo.

  • Geração de conteúdo: Crie grandes volumes de texto, como descrições de produtos ou artigos.

  • Revisão e Resumo de Documentos: Automatize a revisão e o resumo de documentos extensos.

  • Automação do Suporte ao Cliente: Gerencie simultaneamente múltiplas consultas para proporcionar respostas mais rápidas.

  • Extração e Análise de Dados: Extraia e analise informações de grandes quantidades de dados não estruturados.

  • Tarefas de Processamento de Linguagem Natural (NLP): Execute tarefas como análise de sentimento ou tradução em grandes conjuntos de dados.

  • Marketing e Personalização: Crie conteúdo personalizado e recomendações em escala.

Para obter mais informações sobre como iniciar implantações globais em lote.

Julho de 2024

GPT-4o mini já está disponível para ajuste fino

O mini ajuste preciso GPT-4o já está disponível para pré-visualização pública na Suécia Central e no Norte Central dos EUA.

A ferramenta de pesquisa de arquivos Assistants agora é cobrada

A ferramenta de pesquisa de ficheiros para Assistentes tem agora custos adicionais pela utilização. Consulte a página de preços para obter mais informações.

Modelo mini GPT-4o disponível para implantação

GPT-4o mini é o mais recente modelo OpenAI do Azure anunciado pela primeira vez em 18 de julho de 2024:

"O GPT-4o mini permite que os clientes forneçam aplicações impressionantes a um custo mais baixo com uma velocidade impressionante. O GPT-4o mini é significativamente mais inteligente do que o GPT-3.5 Turbo — pontuando 82% na medição do Massive Multitask Language Understanding (MMLU) em comparação com 70% — e é mais de 60% mais barato.1 O modelo oferece uma janela de contexto expandida de 128K e integra os recursos multilíngues aprimorados do GPT-4o, trazendo maior qualidade para idiomas de todo o mundo."

O modelo está atualmente disponível para implantação padrão e implantação padrão global na região Leste dos Estados Unidos.

Para obter informações sobre a cota modelo, consulte a página de cotas e limites e, para obter as informações mais recentes sobre a disponibilidade do modelo, consulte a página de modelos.

Nova política de filtragem de conteúdo padrão de IA responsável

A nova política DefaultV2 de filtragem de conteúdo padrão oferece as mais recentes mitigações de segurança e proteção para a série de modelos GPT (texto), incluindo:

  • Prompt Shields para proteger contra ataques de jailbreak em comandos do utilizador (filtro)
  • Deteção de material protegido para texto (filtro) em conclusões de modelos
  • Deteção de material protegido em código (anotação) para completamentos de modelo

Embora não haja alterações nos filtros de conteúdo para recursos e implantações existentes (as configurações de filtragem de conteúdo padrão ou personalizadas permanecem inalteradas), novos recursos e implantações GPT herdarão automaticamente a nova política DefaultV2de filtragem de conteúdo. Os clientes têm a opção de alternar entre padrões de segurança e criar configurações personalizadas de filtragem de conteúdo.

Consulte a nossa documentação da política de segurança padrão para obter mais informações.

Nova versão da API do GA

A versão 2024-06-01 da API é a versão mais recente da API de inferência do plano de dados GA. Ele substitui a versão 2024-02-01 da API e adiciona suporte para:

  • incorpora encoding_format parâmetros & dimensions .
  • conclusões de chat logprobs e parâmetros top_logprobs

Consulte a nossa documentação de referência sobre inferência no plano de dados para obter mais informações.

Expansão das regiões disponíveis para implantações padrão globais do gpt-4o

O GPT-4o agora está disponível para desdobramentos padrão globais em:

  • leste da Austrália
  • Brasil Sul
  • Canadá Leste
  • Eastus
  • Eastus2
  • FranceCentral Git
  • Alemanha Oeste Central
  • JapãoLeste
  • Coreia Central
  • Centro-Norte
  • Noruega Oriental
  • Polónia Central
  • África do SulNorte
  • Centro-Sul
  • Sul da Índia
  • suécia central
  • suíçanorte
  • UKSOUTH
  • Europa Ocidental
  • Westus
  • Westus3

Para obter informações sobre a quota normalizada global, consulte a página de quotas e limites.

junho de 2024

Atualizações da data de aposentadoria

  • Atualizou a data de aposentadoria gpt-35-turbo 0301 para não antes de 1 de outubro de 2024.
  • Data de aposentadoria de gpt-35-turbo & gpt-35-turbo-16k0613 atualizada para 1º de outubro de 2024.
  • Atualizou a data de desativação de & 0314 para 1 de outubro de 2024 e a data de retirada para 6 de junho de 2025.

Consulte o nosso guia de aposentadoria modelo para obter as informações mais recentes sobre a descontinuação do modelo e a aposentadoria.

Faturamento baseado em token para ajuste fino

  • O ajuste fino de faturamento do Azure OpenAI agora é baseado no número de tokens em seu arquivo de treinamento, em vez do tempo total de treinamento decorrido. Isso pode resultar em uma redução significativa de custos para algumas sessões de treino e torna a estimativa dos custos de afinação muito mais fácil. Para saber mais, você pode consultar o edital oficial.

GPT-4o lançado em novas regiões

  • O GPT-4o está agora também disponível em:
    • Suécia Central para implementação regional padronizada.
    • Leste da Austrália, Leste do Canadá, Leste do Japão, Coreia Central, Suécia Central, Suíça Norte, & Oeste dos EUA 3 para implantação provisionada.

Para obter as informações mais recentes sobre a disponibilidade do modelo, consulte a página de modelos.

Suporte de chave gerenciada pelo cliente (CMK) para assistentes

Threads and Files in Assistants agora suporta CMK na seguinte região:

  • E.U.A. Oeste 3

maio de 2024

Implementações provisionadas do GPT-4

gpt-4o Versão: 2024-05-13 está disponível para implantações padrão e provisionadas. As implementações de modelos provisionadas e padrão aceitam tanto pedidos de inferência de texto como de imagem/visão. Para obter informações sobre a disponibilidade regional do modelo, consulte a matriz do modelo para implantações provisionadas.

Assistentes v2 (pré-visualização)

Uma atualização da API de assistentes agora está disponível publicamente. Ele contém as seguintes atualizações:

  • Ferramenta de pesquisa de arquivos e armazenamento vetorial
  • Conclusão máxima e suporte de token de prompt máximo para gerenciar o uso de token.
  • tool_choice parâmetro para forçar o Assistente a usar uma ferramenta especificada. Agora você pode criar mensagens com a função de assistente para criar históricos de conversas personalizados em Threads.
  • Suporte para temperature, top_p, response_format parâmetros.
  • Suporte a streaming e sondagem. Você pode usar as funções auxiliares no nosso SDK Python para criar execuções de tarefas e respostas em fluxo contínuo. Também adicionamos auxiliares do SDK de sondagem para compartilhar atualizações de status de objeto sem a necessidade de sondagem.
  • Experimente aplicativos lógicos e chamadas de função usando o Azure OpenAI Studio. Importe suas APIs REST implementadas em Aplicativos Lógicos como funções e o estúdio invoca a função (como um fluxo de trabalho de Aplicativos Lógicos) automaticamente com base no prompt do usuário.
  • O AutoGen by Microsoft Research fornece uma estrutura de conversação multiagente para permitir a criação conveniente de fluxos de trabalho LLM (Large Language Model) em uma ampla gama de aplicativos. Os assistentes do Azure OpenAI agora estão integrados ao AutoGen por meio do GPTAssistantAgent, um novo agente experimental que permite adicionar Assistentes perfeitamente a fluxos de trabalho multiagente baseados em AutoGen. Isso permite que vários assistentes do Azure OpenAI que podem ser especializados em tarefas ou domínios colaborem e lidem com tarefas complexas.
  • Suporte para modelos finamente ajustados nas seguintes regiões:
    • E.U.A. Leste 2
    • Suécia Central
  • Apoio regional alargado para:
    • Leste do Japão
    • Sul do Reino Unido
    • E.U.A. Oeste
    • E.U.A. Oeste 3
    • Leste da Noruega

Para obter mais informações, consulte a postagem no blog sobre assistentes.

Disponibilidade geral (GA) do modelo GPT-4o

GPT-4o ("o is for "omni") é o mais recente modelo da OpenAI lançado em 13 de maio de 2024.

  • O GPT-4o integra texto e imagens em um único modelo, permitindo lidar com vários tipos de dados simultaneamente. Esta abordagem multimodal aumenta a precisão e a capacidade de resposta nas interações homem-computador.
  • O GPT-4o combina com o GPT-4 Turbo em tarefas de texto e codificação em inglês, oferecendo um desempenho superior em idiomas diferentes do inglês e em tarefas de visão, estabelecendo novos padrões de referência para os recursos de IA.

Para obter informações sobre a disponibilidade regional do modelo, consulte a página de modelos.

Tipo de implantação padrão global (visualização)

As implantações globais estão disponíveis nos mesmos recursos do Azure OpenAI que as ofertas não globais, mas permitem que você aproveite a infraestrutura global do Azure para rotear dinamicamente o tráfego para o data center com a melhor disponibilidade para cada solicitação. O padrão global fornece a cota padrão mais alta para novos modelos e elimina a necessidade de balanceamento de carga em vários recursos.

Para obter mais informações, consulte o guia de tipos de implantação.

Atualizações de ajuste fino

Filtros de conteúdo configuráveis para DALL-E e GPT-4 Turbo Vision GA

Crie filtros de conteúdo personalizados para suas implantações DALL-E 2 e 3, GPT-4 Turbo com Vision GA (turbo-2024-04-09) e GPT-4o. Filtragem de conteúdo

Filtro assíncrono disponível para todos os clientes do Azure OpenAI

A execução assíncrona de filtros para melhorar a latência em cenários de streaming agora está disponível para todos os clientes do Azure OpenAI. Filtragem de conteúdo

Proteções Imediatas

Os Prompt Shields protegem as aplicações alimentadas por modelos OpenAI do Azure contra dois tipos de ataques: ataques diretos (jailbreak) e indiretos. Ataques Indiretos (também conhecidos como Ataques Indiretos por Sondagem ou Ataques de Injeção de Sondagem entre Domínios) são um tipo de ataque a sistemas alimentados por modelos de IA Generativa, que pode ocorrer quando uma aplicação processa informações que não foram diretamente criadas nem pelo desenvolvedor da aplicação nem pelo utilizador. Filtragem de conteúdo

Versão da API 2024-05-01-preview

Disponibilidade geral do modelo GPT-4 Turbo (GA)

A última versão GA do GPT-4 Turbo é:

  • gpt-4 Versão:turbo-2024-04-09

Este é o substituto para os seguintes modelos de pré-visualização:

  • gpt-4 Versão:1106-Preview
  • gpt-4 Versão:0125-Preview
  • gpt-4 Versão:vision-preview

Diferenças entre OpenAI e Azure OpenAI GPT-4 Turbo GA Models

  • A versão da OpenAI do mais recente 0409 modelo turbo suporta o modo JSON e chamadas de função para todas as solicitações de inferência.
  • A versão mais recente turbo-2024-04-09 do Azure OpenAI atualmente não oferece suporte ao uso do modo JSON e da chamada de função ao fazer solicitações de inferência com entrada de imagem (visão). As solicitações de entrada baseadas em texto (solicitações sem image_url e imagens embutidas) suportam o modo JSON e a chamada de função.

Diferenças em relação ao gpt-4 vision-preview

  • As melhorias específicas de Visão da Azure AI, bem como a integração com o GPT-4 Turbo com Visão, não são suportadas para gpt-4Versão:turbo-2024-04-09. Isso inclui Reconhecimento Ótico de Caracteres (OCR), identificação de objetos, prompts de vídeo e melhoria no processamento dos seus dados com imagens.

Importante

As funcionalidades de pré-visualização das melhorias de visão, incluindo Reconhecimento Ótico de Caracteres (OCR), vinculação de objetos e sugestões de vídeo, serão desativadas e deixarão de estar disponíveis assim que a gpt-4 versão: vision-preview for atualizada para turbo-2024-04-09. Se você estiver confiando em qualquer um desses recursos de visualização, essa atualização automática do modelo será uma grande mudança.

Disponibilidade gerida e provisionada do GPT-4 Turbo

  • gpt-4 Versão:turbo-2024-04-09 está disponível para implantações padrão e provisionadas. Atualmente, a versão provisionada deste modelo não suporta solicitações de inferência de imagem/visão. As implantações provisionadas desse modelo só aceitam entrada de texto. As implantações de modelo padrão aceitam solicitações de inferência de texto e imagem/visão.

Implantando o GPT-4 Turbo com o Vision GA

Para implementar o modelo GA a partir do portal Azure AI Foundry, selecione GPT-4 e escolha a versão turbo-2024-04-09 no menu suspenso. A cota padrão para o gpt-4-turbo-2024-04-09 modelo será a mesma cota atual para GPT-4-Turbo. Consulte os limites das quotas regionais.

Abril de 2024

O ajuste fino agora é suportado em duas novas regiões: Este dos EUA 2 e Suíça Oeste.

O ajuste fino está agora disponível com suporte para:

E.U.A. Leste 2

  • gpt-35-turbo (0613)
  • gpt-35-turbo (1106)
  • gpt-35-turbo (0125)

Oeste da Suíça

  • babbage-002
  • davinci-002
  • gpt-35-turbo (0613)
  • gpt-35-turbo (1106)
  • gpt-35-turbo (0125)

Consulte a página de modelos para obter as informações mais recentes sobre a disponibilidade do modelo e o suporte ao ajuste fino em cada região.

Exemplos de treinamento de bate-papo em vários turnos

O ajuste fino agora suporta exemplos de treinamento de bate-papo em vários turnos.

O GPT-4 (0125) está disponível para o Azure OpenAI On Your Data

Agora você pode usar o modelo GPT-4 (0125) em regiões disponíveis com o Azure OpenAI On Your Data.

Março de 2024

Riscos e monitoramento de segurança no Azure OpenAI Studio

O Azure OpenAI Studio agora fornece um painel de Riscos e Segurança para cada uma de suas implantações que usa uma configuração de filtro de conteúdo. Use-o para verificar os resultados da atividade de filtragem. Em seguida, você pode ajustar sua configuração de filtro para atender melhor às suas necessidades de negócios e atender aos princípios de IA responsável.

Riscos de uso & monitoramento de segurança

Azure OpenAI em suas atualizações de dados

  • Agora você pode se conectar a um banco de dados vetorial do Elasticsearch para ser usado com o Azure OpenAI On Your Data.
  • Você pode usar o parâmetro de tamanho do bloco durante a ingestão de dados para definir o número máximo de tokens de qualquer bloco de dados no índice.

2024-02-01 Lançada a API de disponibilidade geral (GA)

Esta é a versão mais recente da API do GA e é a substituição da versão anterior 2023-05-15 do GA. Esta versão adiciona suporte para os mais recentes recursos GA do Azure OpenAI, como Whisper, DALLE-3, ajuste fino nos seus dados e mais.

Recursos em fase de pré-visualização, como Assistentes, texto para fala (TTS) e algumas das fontes de dados "nos seus dados", requerem uma versão de API de pré-visualização. Para obter mais informações, consulte nosso guia de ciclo de vida da versão da API.

Sussurrar disponibilidade geral (GA)

O modelo de transcrição de fala para texto Whisper está agora disponível para uso geral tanto para REST como para Python. Os SDKs da biblioteca de cliente ainda estão em visualização pública.

Experimente o Whisper seguindo um início rápido.

Disponibilidade geral do DALL-E 3 (GA)

O modelo de geração de imagens DALL-E 3 agora é GA para REST e Python. Os SDKs da biblioteca de cliente ainda estão em visualização pública.

Experimente o DALL-E 3 seguindo um início rápido.

Novo suporte regional para DALL-E 3

Agora pode aceder ao DALL-E 3 com um recurso do Azure OpenAI na região do Azure East US ou AustraliaEast, além de SwedenCentral.

Descontinuações e aposentadorias de modelos

Adicionámos uma página para controlar as descontinuações e desativações de modelos no Azure OpenAI. Esta página fornece informações sobre os modelos atualmente disponíveis, preteridos e desativados.

2024-03-01-preview API lançada

2024-03-01-preview tem a mesma funcionalidade 2024-02-15-preview e adiciona dois novos parâmetros para incorporações:

  • encoding_format Permite especificar o formato para gerar incorporações em float, ou base64. A predefinição é float.
  • dimensions Permite definir o número de incorporações de saída. Este parâmetro só é suportado com os novos modelos de incorporação de terceira geração: text-embedding-3-large, text-embedding-3-small. Normalmente, incorporações maiores são mais caras do ponto de vista de computação, memória e armazenamento. Ser capaz de ajustar o número de dimensões permite mais controle sobre o custo geral e desempenho. O dimensions parâmetro não é suportado em todas as versões da biblioteca OpenAI 1.x Python, para aproveitar este parâmetro recomendamos atualizar para a versão mais recente: pip install openai --upgrade.

Se você estiver usando uma versão de visualização da API para aproveitar os recursos mais recentes, recomendamos consultar o artigo do ciclo de vida da versão da API para acompanhar por quanto tempo sua versão atual da API será suportada.

Atualização dos planos de upgrade GPT-4-1106-Preview

A atualização de implantação do gpt-4 1106-Preview para o 0125-Preview, originalmente agendada para 8 de março de gpt-4 2024, não está mais a ter lugar. As implantações das gpt-4 versões 1106-Preview e 0125-Preview definidas como "Atualização automática para o padrão" e "Atualizar quando expirado" iniciarão a atualização após ser lançada uma versão estável do modelo.

Para obter mais informações sobre o processo de atualização, consulte a página de modelos.

Fevereiro de 2024

Modelo GPT-3.5-turbo-0125 disponível

Este modelo tem várias melhorias, incluindo maior precisão na resposta nos formatos solicitados e uma correção para um bug que causou um problema de codificação de texto para chamadas de função de idioma diferente do inglês.

Para obter informações sobre disponibilidade e atualizações regionais do modelo, consulte a página de modelos.

Modelos de incorporação de terceira geração disponíveis

  • text-embedding-3-large
  • text-embedding-3-small

Em testes, a OpenAI relata que os modelos de incorporação de terceira geração grandes e pequenos oferecem melhor desempenho médio de recuperação em vários idiomas com o benchmark MIRACL , mantendo ainda um melhor desempenho para tarefas em inglês com o benchmark MTEB do que o modelo text-embedding-ada-002 de segunda geração.

Para obter informações sobre disponibilidade e atualizações regionais do modelo, consulte a página de modelos.

Consolidação de quota do GPT-3.5 Turbo

Para simplificar a migração entre diferentes versões dos modelos GPT-3.5-Turbo (incluindo 16k), vamos consolidar todas as quotas GPT-3.5-Turbo num único valor de quota.

  • Todos os clientes que tiverem aumentado a quota aprovada terão quota total combinada que reflete os aumentos anteriores.

  • Qualquer cliente cujo uso total atual nas versões do modelo seja menor do que o padrão receberá uma nova cota total combinada por padrão.

Modelo GPT-4-0125-preview disponível

A gpt-4 versão 0125-preview do modelo agora está disponível no Azure OpenAI nas regiões Leste dos EUA, Centro-Norte dos EUA e Centro-Sul dos EUA. Clientes com implementações da gpt-4 versão 1106-preview serão automaticamente atualizados para 0125-preview nas próximas semanas.

Para obter informações sobre disponibilidade e atualizações regionais do modelo, consulte a página de modelos.

Pré-visualização pública da API de assistentes

O Azure OpenAI agora suporta a API que alimenta os GPTs do OpenAI. Os Assistentes OpenAI do Azure (Pré-visualização) permitem-lhe criar assistentes de IA adaptados às suas necessidades através de instruções personalizadas e ferramentas avançadas, como interpretador de código e funções personalizadas. Para saber mais, consulte:

Pré-visualização pública das vozes de texto para fala da OpenAI

O Azure OpenAI agora dá suporte a APIs de texto para fala com as vozes do OpenAI. Obtenha fala gerada por IA a partir do texto fornecido. Para saber mais, consulte o guia de visão geral e experimente o início rápido.

Observação

O Azure AI Speech também dá suporte a vozes de texto para fala do OpenAI. Para saber mais, veja o guia Vozes de texto para fala do OpenAI através do Azure OpenAI ou do Azure AI Speech.

Novos recursos de ajuste fino e suporte a modelos

Novo suporte regional para o Azure OpenAI On Your Data

Agora você pode usar o Azure OpenAI On Your Data na seguinte região do Azure:

  • Norte da África do Sul

Disponibilidade geral do Azure OpenAI On Your Data

Dezembro de 2023

Azure OpenAI nos Seus Dados

  • Suporte completo de VPN e ponto final privado para o Azure OpenAI On Your Data, incluindo suporte de segurança para: contas de armazenamento, recursos do Azure OpenAI e recursos do serviço Azure AI Search.
  • Novo artigo sobre a utilização da configuração Azure OpenAI On Your Data, protegendo dados através de redes virtuais e endpoints privados.

GPT-4 Turbo com Visão já está disponível

O GPT-4 Turbo com Visão no Azure OpenAI está agora em prévia pública. GPT-4 Turbo with Vision é um grande modelo multimodal (LMM) desenvolvido pela OpenAI que pode analisar imagens e fornecer respostas textuais a perguntas sobre elas. Incorpora processamento de linguagem natural e compreensão visual. Com o modo avançado, você pode usar os recursos do Azure AI Vision para gerar informações adicionais a partir das imagens.

  • Explore os recursos do GPT-4 Turbo com Visão em uma experiência sem código usando o Azure OpenAI Playground. Saiba mais no Guia de início rápido.
  • Melhoria de visão usando GPT-4 Turbo com Vision está agora disponível no Azure OpenAI Playground e inclui suporte para Reconhecimento Óptico de Caracteres, fundamentação de objetos, suporte para imagem para "adicionar os seus dados" e suporte para sugestão de vídeo.
  • Faça chamadas para a API de chat diretamente usando a API REST.
  • A disponibilidade da região está atualmente limitada a SwitzerlandNorth, SwedenCentral, WestUSe AustraliaEast
  • Saiba mais sobre as limitações conhecidas do GPT-4 Turbo com Visão e outras perguntas frequentes.

Novembro de 2023

Novo suporte de fonte de dados no Azure OpenAI On Your Data

  • Agora você pode usar o Azure Cosmos DB para MongoDB vCore e URLs/endereços da Web como fontes de dados para ingerir seus dados e conversar com um modelo do Azure OpenAI com suporte.

GPT-4 Turbo Preview & GPT-3.5-Turbo-1106 lançado

Ambos os modelos são a versão mais recente do OpenAI com instruções aprimoradas, modo JSON, saída reproduzível e chamada de função paralela.

  • O GPT-4 Turbo Preview tem uma janela de contexto máxima de 128.000 tokens e pode gerar 4.096 tokens de saída. Tem os mais recentes dados de formação com conhecimento até abril de 2023. Este modelo está em pré-visualização e não é recomendado para utilização em produção. Todas as implantações deste modelo de visualização serão atualizadas automaticamente assim que a versão estável estiver disponível.

  • O GPT-3.5-Turbo-1106 tem uma janela de contexto máxima de 16.385 tokens e pode gerar 4.096 tokens de saída.

Para obter informações sobre a disponibilidade regional do modelo, consulte a página de modelos.

Os modelos têm suas próprias alocações de cotas exclusivas por região.

Pré-visualização pública do DALL-E 3

DALL-E 3 é o modelo de última geração de imagens da OpenAI. Ele apresenta qualidade de imagem aprimorada, cenas mais complexas e melhor desempenho ao renderizar texto em imagens. Também vem com mais opções de proporção de imagem. DALL-E 3 está disponível através do OpenAI Studio e através da API REST. Seu recurso OpenAI deve estar na SwedenCentral região do Azure.

O DALL-E 3 inclui reformulação de prompts integrada para melhorar as imagens, reduzir o viés e aumentar a variação natural.

Experimente o DALL-E 3 seguindo um início rápido.

Inteligência Artificial responsável

  • Configurabilidade expandida do cliente: todos os clientes do Azure OpenAI agora podem configurar todos os níveis de gravidade (baixo, médio, alto) para as categorias ódio, violência, sexual e automutilação, incluindo a filtragem apenas de conteúdo de alta gravidade. Configurar filtros de conteúdo

  • Credenciais de conteúdo em todos os modelos de DALL-E: as imagens geradas por IA de todos os modelos de DALL-E agora incluem uma credencial digital que divulga o conteúdo como gerado por IA. Os aplicativos que exibem ativos de imagem podem aproveitar o SDK da Content Authenticity Initiative de código aberto para exibir credenciais em suas imagens geradas por IA. Credenciais de conteúdo no Azure OpenAI

  • Novos modelos RAI

    • Deteção de risco de jailbreak: Os ataques de jailbreak são pedidos do utilizador projetados para provocar o modelo de IA generativa a adotar comportamentos que ele foi treinado para evitar ou quebrar as regras definidas na Mensagem do Sistema. O modelo de deteção de risco de jailbreak é opcional (padrão desativado) e está disponível em modelos de anotação e de filtro. Funciona com os prompts do utilizador.
    • Texto de material protegido: o texto de material protegido descreve o conteúdo de texto conhecido (por exemplo, letras de músicas, artigos, receitas e conteúdo da Web selecionado) que pode ser gerado por modelos de linguagem grandes. O modelo de texto de material protegido é opcional (desativado por padrão) e está disponível no modelo de anotação e filtragem. Funciona com complementos LLM.
    • Código de material protegido: O código de material protegido descreve o código-fonte que corresponde a um conjunto de código-fonte de repositórios públicos, que pode ser gerado por modelos de linguagem grandes sem a citação adequada de repositórios de código-fonte. O modelo de código de material protegido é opcional (padrão desativado) e está disponível no modelo de anotação e filtro. Funciona com complementos LLM.

    Configurar filtros de conteúdo

  • Listas de bloqueio: os clientes agora podem personalizar rapidamente o comportamento do filtro de conteúdo para prompts e conclusões, criando uma lista de bloqueio personalizada nos seus filtros. A lista de bloqueio personalizada permite que o filtro execute ações em uma lista personalizada de padrões, como termos específicos ou padrões regex. Além de listas de bloqueio personalizadas, fornecemos uma lista de bloqueio de palavrões da Microsoft (inglês). Usar listas de bloqueio

Outubro de 2023

Novos modelos de ajuste fino (pré-visualização)

Azure OpenAI nos Seus Dados

  • Novos parâmetros personalizados para determinar o número de documentos recuperados e rigor.
    • A definição de rigor define o limite para categorizar documentos como relevantes para as suas consultas.
    • A configuração de documentos recuperados especifica o número de documentos com melhor pontuação do índice de dados usado para gerar respostas.
  • Você pode ver o status de ingestão/carregamento de dados no Azure OpenAI Studio.
  • Suporte para endpoints privados & VPNs para contentores de blobs.

Setembro de 2023

GPT-4

O GPT-4 e o GPT-4-32k estão agora disponíveis para todos os clientes do Azure OpenAI. Os clientes não precisam mais solicitar a lista de espera para usar GPT-4 e GPT-4-32k (os requisitos de registro de Acesso Limitado continuam a ser aplicados a todos os modelos do Azure OpenAI). A disponibilidade pode variar de acordo com a região. Consulte a página de modelos para obter as informações mais recentes sobre a disponibilidade de modelos em cada região.

GPT-3.5 Turbo Instruções

O Azure OpenAI agora suporta o modelo GPT-3.5 Turbo Instruct. Este modelo tem desempenho comparável ao text-davinci-003 e está disponível para uso com a API de Completions. Consulte a página de modelos para obter as informações mais recentes sobre a disponibilidade de modelos em cada região.

Pré-visualização pública Whisper

O Azure OpenAI agora oferece suporte a APIs de fala para texto alimentadas pelo modelo Whisper da OpenAI. Obtenha texto gerado por IA com base no áudio de fala fornecido. Para saber mais, confira o guia de início rápido.

Observação

O Azure AI Speech também suporta o modelo Whisper da OpenAI através da API de transcrição em lote. Para saber mais, consulte o guia Criar uma transcrição em lote. Confira O que é o modelo Whisper? , para saber mais sobre quando usar o Azure AI Speech versus o Azure OpenAI.

Novas Regiões

  • O Azure OpenAI agora também está disponível nas regiões Suécia Central e Suíça Norte. Consulte a página de modelos para obter as informações mais recentes sobre a disponibilidade de modelos em cada região.

Aumento dos limites regionais das quotas

  • Aumento dos limites máximos padrão de cota para determinados modelos e regiões. A migração de cargas de trabalho para esses modelos e regiões permitirá que você aproveite os Tokens por minuto (TPM) mais altos.

Agosto de 2023

Azure OpenAI atualizações de pré-visualização sobre os seus próprios dados

Julho de 2023

Suporte para chamadas de funções

Aumento da incorporação da matriz de entrada

Novas Regiões

  • O Azure OpenAI agora também está disponível nas regiões Leste do Canadá, Leste dos EUA 2, Leste do Japão e Centro-Norte dos EUA. Consulte a página de modelos para obter as informações mais recentes sobre a disponibilidade de modelos em cada região.

Junho de 2023

Usar o Azure OpenAI nos seus próprios dados (pré-visualização)

  • O Azure OpenAI On Your Data está agora disponível em pré-visualização, permitindo-lhe conversar com modelos OpenAI como GPT-35-Turbo e GPT-4 e receber respostas com base nos seus dados.

Novas versões dos modelos gpt-35-turbo e gpt-4

  • GPT-35-Turbo (Versão 0613)
  • GPT-35-Turbo-16K (Versão 0613)
  • GPT-4 (Versão 0613)
  • GPT-4-32K (Versão 0613)

Sul do Reino Unido

  • Azure OpenAI agora está disponível na região Sul do Reino Unido. Consulte a página de modelos para obter as informações mais recentes sobre a disponibilidade de modelos em cada região.

Filtragem de conteúdo e anotações (Pré-visualização)

Quota

Maio de 2023

Suporte ao SDK de Java & JavaScript

  • NOVOS SDKs de visualização do Azure OpenAI que oferecem suporte para JavaScript e Java.

Disponibilidade Geral do Azure OpenAI Chat Completion (GA)

  • Suporte de disponibilidade geral para:
    • Versão 2023-05-15da API de Conclusão de Bate-papo
    • Modelos GPT-35-Turbo.
    • Série de modelos GPT-4.

Se você estiver usando a 2023-03-15-preview API no momento, recomendamos migrar para a API do GA 2023-05-15 . Se você estiver usando a versão 2022-12-01 da API, essa API permanecerá GA, mas não incluirá os recursos mais recentes de Conclusão de Bate-papo.

Importante

O uso das versões atuais dos modelos GPT-35-Turbo com o ponto final de conclusão permanece em visualização.

Centro de França

  • Azure OpenAI agora está disponível na região França Central. Consulte a página de modelos para obter as informações mais recentes sobre a disponibilidade de modelos em cada região.

Abril de 2023

  • Pré-visualização pública do DALL-E 2. O Azure OpenAI agora suporta APIs de geração de imagens alimentadas pelo modelo DALL-E 2 da OpenAI. Obtenha imagens geradas por IA com base no texto descritivo fornecido. Para saber mais, confira o guia de início rápido.

  • Implantações inativas de modelos personalizados agora serão excluídas após 15 dias; os modelos permanecerão disponíveis para reimplantação. Se um modelo personalizado (ajustado) for implantado por mais de quinze (15) dias durante os quais nenhuma conclusão ou chamada de conclusão de bate-papo for feita para ele, a implantação será excluída automaticamente (e nenhuma cobrança adicional de hospedagem será incorrida para essa implantação). O modelo personalizado subjacente permanecerá disponível e pode ser reimplantado a qualquer momento. Para saber mais, consulte o artigo de instruções.

Março de 2023

  • Os modelos da série GPT-4 estão agora disponíveis em pré-visualização no Azure OpenAI. Para solicitar acesso, os clientes existentes do Azure OpenAI podem se inscrever preenchendo este formulário. Estes modelos estão atualmente disponíveis nas regiões Leste dos EUA e Centro-Sul dos EUA.

  • Nova API de conclusão de bate-papo para modelos GPT-35-Turbo e GPT-4 lançada em pré-visualização em 21/03. Para saber mais, confira os inícios rápidos atualizados e o artigo de instruções.

  • Pré-visualização do GPT-35-Turbo. Para saber mais, confira o artigo de instruções.

  • Limites de formação aumentados para ajuste fino: O tamanho máximo da tarefa de formação (tokens no arquivo de formação) x (# de épocas) é de 2 mil milhões de tokens para todos os modelos. Também aumentamos o trabalho máximo de treinamento de 120 para 720 horas.

  • Adicionar casos de uso adicionais ao seu acesso existente. Anteriormente, o processo de adição de novos casos de uso exigia que os clientes se recandidatassem ao serviço. Agora, estamos lançando um novo processo que permite que você adicione rapidamente novos casos de uso ao seu uso do serviço. Este processo segue o processo de Acesso Limitado estabelecido no Azure OpenAI. Os clientes existentes podem atestar todos e quaisquer novos casos de uso aqui. Observe que isso é necessário sempre que você quiser usar o serviço para um novo caso de uso para o qual não se candidatou originalmente.

Fevereiro de 2023

Novas funcionalidades

Atualizações

  • A filtragem de conteúdo está ativada por padrão.

Novos artigos sobre:

Novo curso de formação:

Janeiro de 2023

Novas funcionalidades

  • Serviço GA. O Azure OpenAI agora está disponível para o público em geral.

  • Novos modelos: Adição do modelo de texto mais recente, text-davinci-003 (Leste dos EUA, Europa Ocidental), text-ada-embeddings-002 (Leste dos EUA, Centro-Sul dos EUA, Europa Ocidental)

Dezembro de 2022

Novas funcionalidades

  • Os modelos mais recentes da OpenAI. O Azure OpenAI fornece acesso a todos os modelos mais recentes, incluindo a série GPT-3.5.

  • Nova versão da API (2022-12-01). Esta atualização inclui vários aprimoramentos solicitados, incluindo informações de uso de token na resposta da API, mensagens de erro aprimoradas para arquivos, alinhamento com o OpenAI no ajuste fino da estrutura de dados de criação e suporte para o parâmetro de sufixo para permitir a nomeação personalizada de trabalhos ajustados. ​

  • Limites mais elevados de pedidos por segundo. 50 para modelos não-DaVinci. 20 para os modelos Davinci.

  • Implantações de ajuste fino mais rápidas. Implemente modelos Ada e Curie ajustados em menos de 10 minutos.

  • Limites de treinamento mais altos: 40 milhões de tokens de treinamento para Ada, Babbage e Curie. 10M para Davinci.

  • Processo para solicitar modificações no registro de abuso e uso indevido de dados e revisão humana. Hoje, o serviço registra dados de solicitação/resposta para fins de deteção de abuso e uso indevido para garantir que esses modelos poderosos não sejam abusados. No entanto, muitos clientes têm requisitos rigorosos de privacidade e segurança de dados que exigem maior controle sobre seus dados. Para dar suporte a esses casos de uso, estamos lançando um novo processo para que os clientes modifiquem as políticas de filtragem de conteúdo ou desativem o log de abuso para casos de uso de baixo risco. Este processo segue o processo de Acesso Limitado estabelecido no Azure OpenAI e os clientes existentes do OpenAI podem candidatar-se aqui.

  • Criptografia de chave gerenciada pelo cliente (CMK). A CMK fornece aos clientes maior controle sobre o gerenciamento de seus dados no Azure OpenAI, fornecendo suas próprias chaves de criptografia usadas para armazenar dados de treinamento e modelos personalizados. As chaves geridas pelo cliente (CMK), também conhecidas como bring your own key (BYOK), oferecem maior flexibilidade para criar, rodar, desativar e revogar os controlos de acesso. Também pode auditar as chaves de encriptação utilizadas para proteger os dados. Saiba mais com a nossa documentação sobre encriptação em repouso.

  • Suporte a Lockbox

  • Conformidade com SOC-2

  • Registo e diagnósticos através do Azure Resource Health, Análise de Custos, e Configurações de Métricas e Diagnóstico.

  • Melhorias no estúdio. Várias melhorias de usabilidade no fluxo de trabalho do Studio, incluindo suporte à função do Azure AD para controlar quem na equipe tem acesso para criar modelos ajustados e implantar.

Alterações (quebra)

O ajuste fino da solicitação de criação de API foi atualizado para corresponder ao esquema da OpenAI.

Pré-visualizar versões da API:

{​
    "training_file": "file-XGinujblHPwGLSztz8cPS8XY",​
    "hyperparams": { ​
        "batch_size": 4,​
        "learning_rate_multiplier": 0.1,​
        "n_epochs": 4,​
        "prompt_loss_weight": 0.1,​
    }​
}

API versão 2022-12-01:

{​
    "training_file": "file-XGinujblHPwGLSztz8cPS8XY",​
    "batch_size": 4,​
    "learning_rate_multiplier": 0.1,​
    "n_epochs": 4,​
    "prompt_loss_weight": 0.1,​
}

A filtragem de conteúdo está temporariamente desativada por padrão. A moderação de conteúdo do Azure funciona de forma diferente do Azure OpenAI. O Azure OpenAI executa filtros de conteúdo durante a chamada de geração para detetar conteúdo prejudicial ou abusivo e filtra-os da resposta. Saiba mais

Esses modelos serão reativados no 1º trimestre de 2023 e estarão ativados por padrão. ​

Ações do cliente

Próximos passos

Saiba mais sobre os modelos subjacentes que alimentam o Azure OpenAI.