Imagens predefinidas do Docker para inferência
As imagens de contêiner predefinidas do Docker para inferência são usadas ao implantar um modelo com o Azure Machine Learning. As imagens são predefinidas com estruturas populares de machine learning e pacotes Python. Você também pode estender os pacotes para adicionar outros pacotes com um dos seguintes métodos:
Por que devo usar imagens predefinidas?
- Reduz a latência da implantação de modelo
- Aumenta a taxa de sucesso da implantação de modelo
- Evite o build de imagem desnecessário durante a implantação de modelo
- Inclui apenas as dependências e o acesso necessários diretamente na imagem/contêiner
Lista de imagens predefinidas do Docker para inferência
Importante
A lista fornecida na tabela a seguir inclui apenas as imagens do Docker de inferência que o Azure Machine Learning atualmente dá suporte.
- Todas as imagens do Docker são executadas como usuário não raiz.
- É recomendável usar a marca
latest
para imagens do Docker. As imagens predefinidas do Docker para inferência são publicadas no MCR (registro de contêiner da Microsoft). Para obter informações sobre como consultar a lista de marcas disponíveis, consulte o repositório GitHub do MCR. - Se você quiser usar uma marca específica para qualquer imagem do Docker de inferência, o Azure Machine Learning oferecerá suporte a marcas que variam de
latest
a seis meses mais antigos quelatest
.
Imagens de base mínima de inferência
Versão do Framework | CPU/GPU | Pacotes pré-instalados | Caminho do MCR |
---|---|---|---|
NA | CPU | NA | mcr.microsoft.com/azureml/minimal-ubuntu20.04-py38-cpu-inference:latest |
NA | GPU | NA | mcr.microsoft.com/azureml/minimal-ubuntu20.04-py38-cuda11.6.2-gpu-inference:latest |
NA | CPU | NA | mcr.microsoft.com/azureml/minimal-ubuntu22.04-py39-cpu-inference:latest |
NA | GPU | NA | mcr.microsoft.com/azureml/minimal-ubuntu22.04-py39-cuda11.8-gpu-inference:latest |
Observação
O Azure Machine Learning dá suporte a Ambientes coletados. Você pode procurar ambientes coletados e adicionar um filtro para Tags: Inferencing
.