Immagini Docker predefinite per l'inferenza
Le immagini del contenitore Docker predefinite per l'inferenza vengono usate durante la distribuzione di un modello con Azure Machine Learning. Le immagini sono predefinite nei framework di Machine Learning e pacchetti Python più diffusi. È anche possibile estendere i pacchetti per aggiungere altri pacchetti usando uno dei metodi seguenti:
Perché è consigliabile usare le immagini predefinite?
- Riduce la latenza di distribuzione del modello
- Migliora la frequenza di successo della distribuzione del modello
- Evita la compilazione di immagini non necessarie durante la distribuzione del modello
- Include solo le dipendenze necessarie e il diritto di accesso nell'immagine/contenitore
Elenco delle immagini Docker predefinite per l'inferenza
Importante
L'elenco fornito nella tabella seguente include solo le immagini Docker di inferenza attualmente supportate da Azure Machine Learning.
- Tutte le immagini Docker vengono eseguite come utente non radice.
- È consigliabile usare il tag per le
latest
immagini Docker. Le immagini Docker predefinite per l'inferenza vengono pubblicate nel Registro Contenitori Microsoft (MCR). Per informazioni su come eseguire una query sull'elenco dei tag disponibili, vedere il repository GitHub MCR. - Se si vuole usare un tag specifico per qualsiasi immagine Docker di inferenza, Azure Machine Learning supporta tag compresi tra
latest
e sei mesi precedenti alatest
.
Immagini di base minime per l’inferenza
Versione framework | CPU/GPU | Pacchetti preinstallati | Percorso MCR |
---|---|---|---|
N/D | CPU | N/D | mcr.microsoft.com/azureml/minimal-ubuntu20.04-py38-cpu-inference:latest |
N/D | GPU | N/D | mcr.microsoft.com/azureml/minimal-ubuntu20.04-py38-cuda11.6.2-gpu-inference:latest |
N/D | CPU | N/D | mcr.microsoft.com/azureml/minimal-ubuntu22.04-py39-cpu-inference:latest |
N/D | GPU | ND | mcr.microsoft.com/azureml/minimal-ubuntu22.04-py39-cuda11.8-gpu-inference:latest |