Immagini Docker predefinite per l'inferenza
Le immagini del contenitore Docker predefinite per l'inferenza vengono usate durante la distribuzione di un modello con Azure Machine Learning. Le immagini sono predefinite nei framework di Machine Learning e pacchetti Python più diffusi. È anche possibile estendere i pacchetti per aggiungere altri pacchetti usando uno dei metodi seguenti:
Perché è consigliabile usare le immagini predefinite?
- Riduce la latenza di distribuzione del modello
- Migliorare la percentuale di successo della distribuzione del modello
- Evita la compilazione di immagini non necessarie durante la distribuzione del modello
- Include solo le dipendenze necessarie e il diritto di accesso nell'immagine/contenitore
Elenco delle immagini Docker predefinite per l'inferenza
Importante
L'elenco fornito nella tabella seguente include solo le immagini Docker di inferenza attualmente supportate da Azure Machine Learning.
- Tutte le immagini Docker vengono eseguite come utente non radice.
- È consigliabile usare il tag
latest
per le immagini Docker. Le immagini Docker predefinite per l'inferenza vengono pubblicate nel Registro Contenitori Microsoft (MCR). Per informazioni su come eseguire una query sull'elenco dei tag disponibili, vedere il repository di GitHub MCR. - Se si vuole usare un tag specifico per qualsiasi immagine Docker di inferenza, Azure Machine Learning supporta tag compresi tra
latest
e sei mesi più vecchi dilatest
.
Immagini di base minime per l’inferenza
Versione framework | CPU/GPU | Pacchetti preinstallati | Percorso MCR |
---|---|---|---|
N/D | CPU | N/D | mcr.microsoft.com/azureml/minimal-ubuntu20.04-py38-cpu-inference:latest |
N/D | GPU | N/D | mcr.microsoft.com/azureml/minimal-ubuntu20.04-py38-cuda11.6.2-gpu-inference:latest |
N/D | CPU | N/D | mcr.microsoft.com/azureml/minimal-ubuntu22.04-py39-cpu-inference:latest |
N/D | GPU | ND | mcr.microsoft.com/azureml/minimal-ubuntu22.04-py39-cuda11.8-gpu-inference:latest |
Nota
Azure Machine Learning supporta Ambienti curati. È possibile esplorare gli ambienti curati e aggiungere un filtro per Tags: Inferencing
.