Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Este artigo demonstra como habilitar o Model Serving em seu espaço de trabalho e alternar seus modelos para a experiência Mosaic AI Model Serving baseada em computação sem servidor.
Requisitos
- Modelo registrado no Registro do Modelo MLflow.
- Permissões nos modelos registados, conforme descrito no guia de controle de acesso.
- Habilite a computação sem servidor em seu espaço de trabalho.
Alterações significativas
- No Model Serving, o formato da solicitação para o endpoint e a resposta do endpoint são ligeiramente diferentes do Legacy MLflow Model Serving. Consulte Pontuar um endpoint de modelo para obter detalhes sobre o novo protocolo de formato.
- No serviço de modelo, o URL do endpoint inclui
serving-endpoints
em vez demodel
. - O Model Serving inclui suporte completo para gerenciar recursos com fluxos de trabalho de API.
- O Model Serving está pronto para produção e é apoiado pelo SLA do Azure Databricks.
Migrar o serviço de modelos MLflow herdados para o Serviço de Modelos
Você pode criar um endpoint para servir modelos e fazer a transição flexível de fluxos de trabalho sem desabilitar o Legacy MLflow Model Serving.
As etapas a seguir mostram como fazer isso com a interface do usuário. Para cada modelo no qual você tem o Legacy MLflow Model Serving habilitado:
- Registe o seu modelo no Catálogo Unity.
- Navegue até Pontos de Serviço na barra lateral do seu espaço de trabalho de aprendizagem de máquina.
- Siga o fluxo de trabalho descrito em Criar pontos de extremidade de serviço de modelo personalizado para saber como criar um ponto de extremidade de serviço com o seu modelo.
- Faça a transição da sua aplicação para usar a nova URL fornecida pelo endpoint de serviço para consultar o modelo, juntamente com o novo formato de pontuação.
- Quando os modelos são transferidos, você pode navegar até Modelos na barra lateral do espaço de trabalho de aprendizado de máquina.
- Selecione o modelo para o qual você deseja desabilitar o Legacy MLflow Model Serving.
- Na guia Serviço, selecione Parar.
- Uma mensagem aparece para confirmar. Selecione Parar de servir.
Migrar versões de modelo implantadas para o Model Serving
Em versões anteriores da funcionalidade Model Serving, o ponto de extremidade de serviço era criado com base no estágio da versão do modelo registrado: Staging
ou Production
. Para migrar seus modelos servidos a partir dessa experiência, você pode replicar esse comportamento na nova experiência de Serviço de Modelo.
Esta seção demonstra como criar endpoints de serviço de modelos separados para as versões de modelo Staging
e Production
. As etapas a seguir mostram como fazer isso com a API de pontos de extremidade de serviço para cada um dos modelos servidos.
No exemplo, o nome modelA
do modelo registrado tem a versão 1 no estágio Production
do modelo e a versão 2 no estágio Staging
do modelo.
Crie dois pontos de extremidade para seu modelo registrado, um para
Staging
versões de modelo e outro paraProduction
versões de modelo.Para
Staging
versões do modelo:POST /api/2.0/serving-endpoints { "name":"modelA-Staging" "config": { "served_entities": [ { "entity_name":"model-A", "entity_version":"2", // Staging Model Version "workload_size":"Small", "scale_to_zero_enabled":true }, ], }, }
Para
Production
versões do modelo:POST /api/2.0/serving-endpoints { "name":"modelA-Production" "config": { "served_entities": [ { "entity_name":"model-A", "entity_version":"1", // Production Model Version "workload_size":"Small", "scale_to_zero_enabled":true }, ], }, }
Verifique o estado dos pontos de extremidade.
Para o endpoint de testes:
GET /api/2.0/serving-endpoints/modelA-Staging
Para o ponto de extremidade de produção:
GET /api/2.0/serving-endpoints/modelA-Production
Quando os pontos de extremidade estiverem prontos, consulte o ponto de extremidade usando:
Para o endpoint de testes:
POST /serving-endpoints/modelA-Staging/invocations
Para o ponto de extremidade de produção:
POST /serving-endpoints/modelA-Production/invocations
Atualize o endpoint com base nas mudanças de versão do modelo.
No cenário em que uma nova versão de modelo 3 é criada, você pode fazer a transição da versão 2 do modelo para
Production
, enquanto a versão 3 do modelo pode fazer a transição paraStaging
e a versão 1 do modelo éArchived
. Essas alterações podem ser refletidas em modelos separados que servem pontos de extremidade da seguinte maneira:Para o ponto de extremidade
Staging
, atualize o ponto de extremidade para usar a nova versão do modelo noStaging
.PUT /api/2.0/serving-endpoints/modelA-Staging/config { "served_entities": [ { "entity_name":"model-A", "entity_version":"3", // New Staging model version "workload_size":"Small", "scale_to_zero_enabled":true }, ], }
Para o ponto de extremidade
Production
, atualize-o para usar a nova versão do modelo noProduction
.PUT /api/2.0/serving-endpoints/modelA-Production/config { "served_entities": [ { "entity_name":"model-A", "entity_version":"2", // New Production model version "workload_size":"Small", "scale_to_zero_enabled":true }, ], }
Migrar fluxos de trabalho de inferência do MosaicML para o Model Serving
Esta seção fornece orientação sobre como migrar suas implantações de inferência do MosaicML para o Mosaic AI Model Serving e inclui um exemplo de bloco de anotações.
A tabela a seguir resume a paridade entre a inferência do MosaicML e o modelo que serve no Azure Databricks.
Inferência MosaicML | Servindo modelo de IA em mosaico |
---|---|
create_inference_deployment | Criar um endpoint para servir modelos |
atualizar_implantação_inferência | Atualizar um modelo que serve o endpoint |
eliminar_implantação_inferência | Excluir um endpoint de serviço de modelo |
get_inference_deployment | Obter o status de um modelo que serve o endpoint |