Partilhar via


Catálogo e Coleções de Modelos

O catálogo de modelos no estúdio de Aprendizado de Máquina do Azure é o hub para descobrir e usar uma ampla gama de modelos que permitem criar aplicativos de IA generativa. O catálogo de modelos apresenta centenas de modelos de fornecedores de modelos como o serviço Azure OpenAI, Mistral, Meta, Cohere, Nvidia, Hugging Face, incluindo modelos treinados pela Microsoft. Os modelos de fornecedores que não sejam a Microsoft são Produtos que não são da Microsoft, conforme definido nos Termos do Produto da Microsoft, e estão sujeitos aos termos fornecidos com o modelo.

Coleções de modelos

Os modelos são organizados por Coleções no catálogo de modelos. Existem três tipos de coleções no catálogo de modelos:

  • Modelos selecionados pelo Azure AI: os modelos proprietários e de ponderação aberta de terceiros mais populares e empacotados e otimizados para funcionarem perfeitamente na plataforma do Azure AI. O uso desses modelos está sujeito aos termos de licença do provedor do modelo fornecidos com o modelo. Quando implementado no Azure Machine Learning, a disponibilidade do modelo está sujeita ao SLA do Azure aplicável e a Microsoft fornece suporte para problemas de implementação. Modelos de parceiros como Meta, NVIDIA, Mistral AI são exemplos de modelos disponíveis na coleção "Curated by Azure AI" no catálogo. Estes modelos podem ser identificados por uma marca de verificação verde nos mosaicos de modelos no catálogo ou pode filtrar pela coleção "Selecionados pelo Azure AI".
  • Modelos do Azure OpenAI, disponíveis exclusivamente no Azure: modelos emblemáticos do Azure OpenAI através da coleção 'Azure OpenAI' através de uma integração com o Serviço OpenAI do Azure. Estes modelos são suportados pela Microsoft e o uso dos mesmos está sujeito aos termos do produto e ao SLA do Azure OpenAI Service.
  • Modelos abertos do hub Hugging Face: Centenas de modelos do hub HuggingFace são acessíveis através da coleção 'Hugging Face' para inferência em tempo real com endpoints online. O Hugging Face cria e mantém modelos disponibilizados na coleção Hugging Face. Aceda ao Fórum da HuggingFace ou contacte o Suporte da HuggingFace para obter ajuda. Saiba mais sobre como implementar modelos do Hugging Face.

Sugerindo adições ao catálogo de modelos: você pode enviar uma solicitação para adicionar um modelo ao catálogo de modelos usando este formulário.

Visão geral dos recursos do catálogo de modelos

Para obter informações sobre os modelos do Azure OpenAI, consulte Azure OpenAI Service.

Para modelos selecionados pela IA do Azure e modelos abertos do hub Hugging Face, alguns deles podem ser implantados com uma opção de computação gerenciada, e alguns deles estão disponíveis para serem implantados usando APIs sem servidor com cobrança pré-paga. Esses modelos podem ser descobertos, comparados, avaliados, ajustados (quando suportados) e implantados em escala e integrados em seus aplicativos de IA generativa com segurança de nível empresarial e governança de dados.

  • Descubra: revise cartões de modelo, experimente a inferência de exemplo e procure exemplos de código para avaliar, ajustar ou implantar o modelo.
  • Comparar: compare benchmarks entre modelos e conjuntos de dados disponíveis no setor para avaliar qual deles atende ao seu cenário de negócios.
  • Avaliar: avalie se o modelo é adequado para sua carga de trabalho específica, fornecendo seus próprios dados de teste. As métricas de avaliação facilitam a visualização do desempenho do modelo selecionado no seu cenário.
  • Ajuste fino: personalize modelos ajustáveis usando seus próprios dados de treinamento e escolha o melhor modelo comparando métricas em todos os seus trabalhos de ajuste fino. As otimizações integradas aceleram o ajuste fino e reduzem a memória e a computação necessárias para o ajuste fino.
  • Implantar: implante modelos pré-treinados ou modelos ajustados perfeitamente para inferência. Os modelos que podem ser implantados na computação gerenciada também podem ser baixados.

Implantação do modelo: computação gerenciada e API sem servidor (paga conforme o uso)

O Catálogo de Modelos oferece duas maneiras distintas de implementar modelos do catálogo para utilizar: computação gerida e APIs sem servidor. As opções de implementação disponíveis para cada modelo variam; saiba mais sobre os recursos das opções de implementação e as opções disponíveis para modelos específicos nas tabelas abaixo. Saiba mais sobre o processamento de dados com as opções de implementação.

Funcionalidades Computação gerida API sem servidor (pay as you go)
Experiência de implementação e faturação As ponderações de modelo são implementadas em máquinas virtuais dedicadas com pontos finais online geridos. O ponto final online gerido, que pode ter uma ou mais implementações, disponibiliza uma API REST para inferência. São-lhe cobradas as horas principais da Máquina Virtual usadas pelas implementações. O acesso aos modelos é feito por meio de uma implementação que aprovisiona uma API para aceder aos mesmos. A API fornece acesso ao modelo alojado num conjunto de GPU central, gerido pela Microsoft, para inferência. Este modo de acesso é denominado "Modelos como Serviço". São-lhe cobradas as entradas e saídas para as APIs, geralmente em tokens; as informações de preços são fornecidas antes da implementação.
Autenticação de API Chaves e Autenticação com Microsoft Entra ID. Mais informações. Apenas chaves.
Segurança dos Conteúdos Use as APIs do serviço de Segurança de Conteúdos do Azure. Os filtros da Segurança de Conteúdos do Azure AI estão disponíveis integrados nas APIs de inferência. Os filtros de Segurança de Conteúdos do Azure AI podem ser cobrados separadamente.
Isolamento da rede Rede Virtual Gerida com pontos Finais Online. Mais informações.

Opções de implementação

Modelo Computação gerida API sem servidor (pay as you go)
Modelos da família Llama Lama 2-7b
Llama-2-7b-bate-papo
Lama-2-13b
Llama-2-13b-bate-papo
Lama-2-70b
Llama-2-70b-bate-papo
Llama-3-8B-Instruir
Llama-3-70B-Instruir
Lama-3-8B
Llama-3-70B
Llama-3-70B-Instruir
Llama-3-8B-Instruir
Lama 2-7b
Llama-2-7b-bate-papo
Lama-2-13b
Llama-2-13b-bate-papo
Lama-2-70b
Llama-2-70b-chat
Modelos da família Mistral mistralai-Mixtral-8x22B-v0-1
mistralai-Mixtral-8x22B-Instruir-v0-1
mistral-comunidade-Mixtral-8x22B-v0-1
mistralai-Mixtral-8x7B-v01
mistralai-Mistral-7B-Instruir-v0-2
mistralai-Mistral-7B-v01
mistralai-Mixtral-8x7B-Instruir-v01
mistralai-Mistral-7B-Instruct-v01
Mistral-grande
Mistral-small
Modelos da família Cohere Não disponível Cohere-command-r-plus
Cohere-command-r
Cohere-embed-v3-inglês
Cohere-embed-v3-multilingual
JAIS Não disponível jais-30b-bate-papo
Modelos da família Phi3 Phi-3-small-128k-Instruir
Phi-3-small-8k-Instruir
Phi-3-mini-4k-Instruir
Phi-3-mini-128k-Instruir
Phi3-medium-128k-instruir
Phi3-médio-4k-instruir
Phi-3-mini-4k-Instruir
Phi-3-mini-128k-Instruir
Phi3-medium-128k-instruir
Phi3-médio-4k-instruir
Nixtla Não disponível TimeGEN-1
Outros modelos Disponível Não disponível

Um diagrama mostrando modelos como um serviço e ciclo de serviço de pontos finais em tempo real.

Computação gerida

A capacidade de implantar modelos com computação gerenciada se baseia nos recursos de plataforma do Azure Machine Learning para permitir a integração perfeita, em todo o ciclo de vida do LLMOps, da ampla coleção de modelos no catálogo de modelos.

Um diagrama mostrando o ciclo de vida do LLMops.

Como os modelos são disponibilizados para computação gerida?

Os modelos são disponibilizados através de registos do Azure Machine Learning que permitem a primeira abordagem de ML para alojar e distribuir recursos de Machine Learning, como ponderações de modelos, runtimes de contentores para executar os modelos, pipelines para avaliar e ajustar os modelos e conjuntos de dados para referências e exemplos. Estes Registos de ML baseiam-se numa infraestrutura altamente escalável e pronta para a empresa que:

Avalie e ajuste modelos implantados com computação gerenciada

Pode avaliar e ajustar a coleção "Organizado por Azure AI" no Azure Machine Learning utilizando os Pipelines do Azure Machine Learning. Pode optar por trazer o seu próprio código de avaliação e otimização e aceder apenas aos pesos de modelo ou utilizar componentes do Azure Machine Learning que oferecem recursos integrados de avaliação e otimização. Saiba mais seguindo esta ligação.

Implante modelos para inferência com computação gerenciada

Os modelos disponíveis para implantação com computação gerenciada podem ser implantados em pontos de extremidade online do Azure Machine Learning para inferência em tempo real ou podem ser usados para inferência em lote do Azure Machine Learning para processar seus dados em lote. A implantação em computação gerenciada exige que você tenha uma cota de Máquina Virtual em sua Assinatura do Azure para as SKUs específicas necessárias para executar o modelo de forma otimizada. Alguns modelos permitem que você implante uma cota compartilhada temporariamente para testar o modelo. Saiba mais sobre a implantação de modelos:

Criar aplicações de IA Generativa com computação gerida

O fluxo dos pedidos oferece recursos para prototipar, experimentar, iterar e implementar as suas aplicações de IA. Pode usar modelos implementados na computação gerida no Fluxo de Pedidos com a ferramenta Open Model LLM. Também pode usar a API REST exposta pelas computações geridas em ferramentas de LLM populares, como LangChain, com a extensão Azure Machine Learning.

Segurança de conteúdo para modelos implementados com computação gerida

O serviço Azure AI Content Safety (AACS) está disponível para uso com modelos implantados para computação gerenciada para rastrear várias categorias de conteúdo prejudicial, como conteúdo sexual, violência, ódio e automutilação, e ameaças avançadas, como deteção de risco de jailbreak e deteção de texto de material protegido. Você pode consultar este bloco de anotações para integração de referência com o AACS para Llama 2 ou usar a ferramenta Segurança de Conteúdo (Texto) no Prompt Flow para passar respostas do modelo para o AACS para triagem. Você será cobrado separadamente de acordo com os preços da AACS por esse uso.

Trabalhar com modelos que não estão no catálogo de modelos

Para modelos não disponíveis no catálogo de modelos, o Azure Machine Learning fornece uma plataforma aberta e extensível para trabalhar com modelos de sua escolha. Você pode trazer um modelo com qualquer estrutura ou tempo de execução usando os recursos de plataforma aberta e extensível do Azure Machine Learning, como ambientes do Azure Machine Learning para contêineres que podem empacotar estruturas e tempos de execução e pipelines do Azure Machine Learning para código para avaliar ou ajustar os modelos. Consulte este bloco de anotações para obter uma referência de exemplo para importar modelos e trabalhar com os tempos de execução e pipelines internos.

APIs sem servidor com faturamento pré-pago

Certos modelos no catálogo de modelos podem ser implantados como APIs sem servidor com faturamento pré-pago; esse método de implantação é chamado de Models-as-a Service (MaaS). Os modelos disponíveis por meio do MaaS são hospedados em infraestrutura gerenciada pela Microsoft, o que permite o acesso baseado em API ao modelo do provedor de modelos. O acesso baseado em API pode reduzir drasticamente o custo de acesso a um modelo e simplificar significativamente a experiência de provisionamento. A maioria dos modelos MaaS vem com preços baseados em tokens.

Como os modelos de terceiros são disponibilizados no MaaS?

Um diagrama que mostra o ciclo de serviço do editor de modelo.

Os modelos disponíveis para implementação como APIs sem servidor com faturação pay-as-you-go são oferecidos pelo fornecedor de modelos, mas alojados na infraestrutura do Azure gerida pela Microsoft e acedidos através de API. Os provedores de modelo definem os termos de licença e definem o preço de uso de seus modelos, enquanto o serviço Azure Machine Learning gerencia a infraestrutura de hospedagem, disponibiliza as APIs de inferência e atua como processador de dados para prompts enviados e saída de conteúdo por modelos implantados via MaaS. Saiba mais sobre o processamento de dados para MaaS no artigo sobre privacidade de dados.

Pague pelo uso do modelo no MaaS

A experiência de descoberta, assinatura e consumo para modelos implantados por meio de MaaS está no Azure AI Studio e no estúdio Azure Machine Learning. Os usuários aceitam os termos de licença para uso dos modelos e as informações de preços para consumo são fornecidas durante a implantação. Os modelos de fornecedores terceiros são faturados através do Azure Marketplace, de acordo com os Termos de Utilização do Mercado Comercial, e os modelos da Microsoft são faturados utilizando os contadores do Azure como Serviços de Consumo de Primeira Parte. Conforme descrito nos Termos do Produto, os Serviços de Consumo de Primeira Parte são adquiridos usando medidores do Azure, mas não estão sujeitos aos termos de serviço do Azure, e o uso desses modelos está sujeito aos termos de licença fornecidos.

Implantar modelos para inferência por meio de MaaS

A implantação de um modelo por meio do MaaS permite que os usuários tenham acesso a APIs de inferência prontas para uso sem a necessidade de configurar a infraestrutura ou provisionar GPUs, economizando tempo e recursos de engenharia. Essas APIs podem ser integradas com várias ferramentas LLM e o uso é cobrado conforme descrito na seção anterior.

Ajuste os modelos através do MaaS com o Pay-as-you-go

Para modelos que estão disponíveis por meio de MaaS e suportam ajuste fino, os usuários podem aproveitar o ajuste fino hospedado com faturamento pré-pago para personalizar os modelos usando os dados que eles fornecem. Para obter mais informações, consulte Ajustar um modelo Llama 2 no Azure AI Studio.

RAG com modelos implantados através de MaaS

O Azure AI Studio permite que os usuários usem índices vetoriais e geração aumentada de recuperação. Os modelos que podem ser implantados como APIs sem servidor podem ser usados para gerar incorporações e inferências com base em dados personalizados para gerar respostas específicas para seu caso de uso. Para obter mais informações, consulte Recuperação de geração aumentada e índices.

Disponibilidade regional de ofertas e modelos

A implantação pré-paga está disponível apenas para usuários cuja assinatura do Azure pertence a uma conta de cobrança em um país onde o provedor de modelo disponibilizou a oferta (consulte "região de disponibilidade da oferta" na tabela na próxima seção). Se a oferta estiver disponível na região relevante, o usuário deverá ter um Espaço de Trabalho na região do Azure onde o modelo está disponível para implantação ou ajuste fino, conforme aplicável (consulte as colunas "Região do espaço de trabalho" na tabela abaixo).

Modelo Disponibilidade regional da oferta Região da Área de Trabalho para Implementação Região da Área de Trabalho para Otimização
Llama-3-70B-Instruir
Llama-3-8B-Instruct
Países Geridos pela Microsoft Leste dos EUA 2, Suécia Central, Centro-Norte dos EUA, Centro-Sul dos EUA, Oeste dos EUA, Leste dos EUA, Oeste dos EUA 3 Não disponível
Lama 2-7b
Lama-2-13b
Lama-2-70b
Países Geridos pela Microsoft Leste dos EUA 2, Leste dos EUA, Oeste dos EUA 3, Oeste dos EUA, Centro-Norte dos EUA, Centro-Sul dos EUA EUA Oeste 3
Llama-2-7b-bate-papo
Llama-2-13b-bate-papo
Llama-2-70b-chat
Países Geridos pela Microsoft Leste dos EUA 2, Leste dos EUA, Oeste dos EUA 3, Oeste dos EUA, Centro-Norte dos EUA, Centro-Sul dos EUA Não disponível
Mistral Small Países Geridos pela Microsoft Leste dos EUA 2, Suécia Central, Centro-Norte dos EUA, Centro-Sul dos EUA, Leste dos EUA, Oeste dos EUA 3, Oeste dos EUA Não disponível
Mistral-Large Países Geridos pela Microsoft
Brasil
Hong Kong
Israel
Leste dos EUA, Leste dos EUA 2, Centro-Norte dos EUA, Centro-Sul dos EUA, Suécia Central, Oeste dos EUA, Oeste dos EUA 3 Não disponível
Cohere-command-r-plus
Cohere-command-r
Cohere-embed-v3-inglês
Cohere-embed-v3-multilingual
Países Geridos pela Microsoft
Japão
Leste dos EUA 2, Suécia Central, Centro-Norte dos EUA, Centro-Sul dos EUA, Leste dos EUA, Oeste dos EUA 3, Oeste dos EUA Não disponível
TimeGEN-1 Países Geridos pela Microsoft
México
Israel
Leste dos EUA, Leste dos EUA 2, Centro-Norte dos EUA, Centro-Sul dos EUA, Suécia Central, Oeste dos EUA, Oeste dos EUA 3 Não disponível
jais-30b-bate-papo Países Geridos pela Microsoft Leste dos EUA 2, Suécia Central, Centro-Norte dos EUA, Centro-Sul dos EUA, Leste dos EUA, Oeste dos EUA 3, Oeste dos EUA Não disponível
Phi-3-mini-4k-instruir Países Geridos pela Microsoft Leste dos EUA 2, Suécia Central, Canadá Central, Oeste dos EUA 3 Não disponível
Phi-3-mini-128k-instruir Países Geridos pela Microsoft E.U.A. Leste 2, Suécia Central Não disponível
Phi-3-medium-4k-instruir, Phi-3-medium-128k-instruir Países Geridos pela Microsoft E.U.A. Leste 2, Suécia Central Não disponível

Segurança de conteúdo para modelos implementados via MaaS

Importante

Esta funcionalidade está atualmente em pré-visualização pública. Esta versão de pré-visualização é fornecida sem um contrato de nível de serviço e não a recomendamos para cargas de trabalho de produção. Algumas funcionalidades poderão não ser suportadas ou poderão ter capacidades limitadas.

Para obter mais informações, veja Termos Suplementares de Utilização para Pré-visualizações do Microsoft Azure.

Para modelos de linguagem implantados em MaaS, o Azure Machine Learning implementa uma configuração padrão de filtros de moderação de texto do Azure AI Content Safety que detetam conteúdo nocivo, como conteúdo de ódio, automutilação, sexual e violento. Para saber mais sobre filtragem de conteúdo (visualização), consulte Categorias de danos na Segurança de conteúdo de IA do Azure.

A filtragem de conteúdo (visualização) ocorre de forma síncrona à medida que o serviço processa solicitações para gerar conteúdo, e você pode ser cobrado separadamente de acordo com o preço do AACS por esse uso. Você pode desabilitar a filtragem de conteúdo (visualização) para pontos de extremidade sem servidor individuais no momento em que implanta um modelo de idioma pela primeira vez ou na página de detalhes da implantação, selecionando a alternância de filtragem de conteúdo. Se você usar um modelo no MaaS por meio de uma API diferente da API de Inferência de Modelo de IA do Azure, a filtragem de conteúdo não será habilitada, a menos que você a implemente separadamente usando a Segurança de Conteúdo da IA do Azure. Se você usar um modelo no MaaS sem filtragem de conteúdo, correrá um risco maior de expor os usuários a conteúdo prejudicial.

Mais informações