Partage via


Schéma YAML de l’environnement CLI (v2)

S’APPLIQUE À : Extension ml Azure CLI v2 (actuelle)

Le schéma JSON source se trouve à l’adresse https://azuremlschemas.azureedge.net/latest/environment.schema.json.

Notes

La syntaxe YAML détaillée dans ce document est basée sur le schéma JSON pour la dernière version de l’extension ML CLI v2. Le fonctionnement de cette syntaxe est garanti uniquement avec la dernière version de l’extension ML CLI v2. Vous trouverez les schémas des versions d’extension plus anciennes sur https://azuremlschemasprod.azureedge.net/.

Syntaxe YAML

Clé Type Description Valeurs autorisées Valeur par défaut
$schema string Schéma YAML. Si vous utilisez l’extension VS Code d’Azure Machine Learning pour créer le fichier YAML, en incluant $schema en haut de votre fichier, vous pouvez appeler des complétions de schémas et de ressources.
name string Obligatoire. Nom de l’environnement.
version string Version de l’environnement. En cas d’omission, Azure Machine Learning génère automatiquement une version.
description string Description de l’environnement.
tags object Dictionnaire d’étiquettes pour l’environnement.
image string Image Docker à utiliser pour l’environnement. image ou build est obligatoire.
conda_file chaîne ou objet Fichier de configuration standard Conda YAML des dépendances pour un environnement Conda. Consultez https://conda.io/projects/conda/en/latest/user-guide/tasks/manage-environments.html#creating-an-environment-file-manually.

En cas de spécification, image doit également être spécifié. Azure Machine Learning crée l’environnement Conda au-dessus de l’image Docker fournie.
build object Configuration du contexte de build Docker à utiliser pour l’environnement. image ou build est obligatoire.
build.path string Chemin d’accès local du répertoire à utiliser comme contexte de build.
build.dockerfile_path string Chemin d’accès relatif du Dockerfile dans le contexte de build. Dockerfile
os_type string Le type de système d’exploitation. linux, windows linux
inference_config object Configurations de conteneur d’inférence. Applicables uniquement si l’environnement est utilisé pour générer un conteneur de service pour les déploiements en ligne. Consultez Attributs de la clé inference_config.

Attributs de la clé inference_config

Clé Type Description
liveness_route object Itinéraire liveness pour le conteneur de service.
liveness_route.path string Chemin d’accès vers lequel acheminer les demandes liveness.
liveness_route.port entier Port vers lequel acheminer les demandes liveness.
readiness_route object Itinéraire readiness pour le conteneur de service.
readiness_route.path string Chemin d’accès vers lequel acheminer les demandes readiness.
readiness_route.port entier Port vers lequel acheminer les demandes readiness.
scoring_route object Itinéraire scoring pour le conteneur de service.
scoring_route.path string Chemin d’accès vers lequel acheminer les demandes scoring.
scoring_route.port entier Port vers lequel acheminer les demandes scoring.

Remarques

La commande az ml environment peut être utilisée pour gérer les environnements d’Azure Machine Learning.

Exemples

Des exemples sont disponibles dans le référentiel d’exemples GitHub. Vous en trouverez plusieurs ci-dessous.

YAML : contexte de build du Docker local

$schema: https://azuremlschemas.azureedge.net/latest/environment.schema.json
name: docker-context-example
build:
  path: docker-contexts/python-and-pip

YAML : image Docker

$schema: https://azuremlschemas.azureedge.net/latest/environment.schema.json
name: docker-image-example
image: pytorch/pytorch:latest
description: Environment created from a Docker image.

YAML : image Docker plus fichier Conda

$schema: https://azuremlschemas.azureedge.net/latest/environment.schema.json
name: docker-image-plus-conda-example
image: mcr.microsoft.com/azureml/openmpi4.1.0-ubuntu20.04
conda_file: conda-yamls/pydata.yml
description: Environment created from a Docker image plus Conda environment.

Étapes suivantes