Partilhar via


Imagens do Docker pré-criadas para inferência

As imagens de contêiner do Docker pré-criadas para inferência são usadas ao implantar um modelo com o Aprendizado de Máquina do Azure. As imagens são pré-construídas com estruturas populares de aprendizado de máquina e pacotes Python. Você também pode estender os pacotes para adicionar outros pacotes usando um dos seguintes métodos:

Por que devo usar imagens pré-construídas?

  • Reduz a latência de implantação do modelo
  • Melhora a taxa de sucesso da implantação do modelo
  • Evita a criação desnecessária de imagens durante a implantação do modelo
  • Inclui apenas as dependências necessárias e o direito de acesso na imagem/contêiner

Lista de imagens pré-construídas do Docker para inferência

Importante

A lista fornecida na tabela a seguir inclui apenas as imagens de inferência do Docker que o Azure Machine Learning suporta atualmente.

  • Todas as imagens do Docker são executadas como usuário não-root.
  • Recomendamos o uso da tag para imagens do latest Docker. As imagens pré-criadas do Docker para inferência são publicadas no Registro de contêiner da Microsoft (MCR). Para obter informações sobre como consultar a lista de tags disponíveis, consulte o repositório MCR GitHub.
  • Se você quiser usar uma marca específica para qualquer imagem do Docker de inferência, o Aprendizado de Máquina do Azure dá suporte a tags que variam de latest até seis meses mais antigas do que latest.

Inferência de imagens de base mínimas

Versão do Framework CPU/GPU Pacotes pré-instalados Caminho MCR
ND CPU ND mcr.microsoft.com/azureml/minimal-ubuntu20.04-py38-cpu-inference:latest
ND GPU ND mcr.microsoft.com/azureml/minimal-ubuntu20.04-py38-cuda11.6.2-gpu-inference:latest
ND CPU ND mcr.microsoft.com/azureml/minimal-ubuntu22.04-py39-cpu-inference:latest
ND GPU ND mcr.microsoft.com/azureml/minimal-ubuntu22.04-py39-cuda11.8-gpu-inference:latest

Nota

O Azure Machine Learning dá suporte a ambientes com curadoria. Você pode navegar em ambientes selecionados e adicionar filtro para Tags: Inferencing.