Événements
Relevez le défi Microsoft Learn
19 nov., 23 h - 10 janv., 23 h
Ignite Edition - Créez des compétences dans Microsoft Azure et gagnez un badge numérique d’ici le 10 janvier !
S’inscrire maintenantCe navigateur n’est plus pris en charge.
Effectuez une mise à niveau vers Microsoft Edge pour tirer parti des dernières fonctionnalités, des mises à jour de sécurité et du support technique.
Une cible de calcul est un environnement ou une ressource de calcul où vous exécutez votre script d’entraînement ou hébergez votre déploiement de service. Cet emplacement peut être votre machine locale ou une ressource de calcul informatique. Les cibles de calcul facilitent la modification de votre environnement de calcul sans modifier votre code.
La prise en charge d’Azure Machine Learning varie selon les cibles de calcul. Dans un cycle de vie de développement de modèle type, vous pouvez effectuer les opérations suivantes :
Les ressources de calcul utilisées pour vos cibles de calcul sont associées à un espace de travail. Les cibles de calcul autres que l’ordinateur local sont partagées par les utilisateurs de l’espace de travail.
Quand vous effectuez un scale-up de votre formation sur des jeux de données plus volumineux ou que vous effectuez une formation distribuée, utilisez la capacité de calcul Azure Machine Learning pour créer un cluster avec un ou plusieurs nœuds qui se met à l’échelle automatiquement chaque fois que vous lancez une tâche. Vous pouvez également attacher votre propre ressource de calcul, bien que la prise en charge de différents scénarios puisse varier.
Les cibles de calcul peuvent être réutilisées d’un travail de formation à l’autre. Par exemple, une fois que vous avez joint une machine virtuelle distante à votre espace de travail, vous pouvez la réutiliser pour plusieurs travaux. Pour les pipelines de Machine Learning, utilisez l’étape de pipeline appropriée pour chaque cible de calcul.
Vous pouvez utiliser n’importe laquelle des ressources suivantes pour une cible de calcul de formation pour la plupart des travaux. Certaines ressources ne peuvent pas être utilisées pour l’apprentissage automatique automatisé, des pipelines d’apprentissage automatique ou un concepteur. Azure Databricks peut être utilisé comme ressource de formation pour les exécutions locales et les pipelines d’apprentissage automatique, mais pas comme cible distante pour d’autres formations.
Cibles de formation | Machine learning automatisé | Pipelines d’apprentissage automatique | Concepteur Azure Machine Learning |
---|---|---|---|
Ordinateur local | Oui | ||
Cluster de calcul Azure Machine Learning | Oui | Oui | Oui |
Calcul serverless Azure Machine Learning | Oui | Oui | Oui |
Instance de calcul Azure Machine Learning | Oui (via un Kit de développement logiciel (SDK)) | Oui | Oui |
Azure Machine Learning Kubernetes | Oui | Oui | |
Machine virtuelle distante | Oui | Oui | |
Pools Apache Spark (préversion) | Oui (Kit de développement logiciel (SDK) en mode local uniquement) | Oui | |
Azure Databricks | Oui (Kit de développement logiciel (SDK) en mode local uniquement) | Oui | |
Service Analytique Azure Data Lake | Oui | ||
Azure HDInsight | Oui | ||
Azure Batch | Oui |
Conseil
L’instance de calcul a un disque de système d’exploitation de 120 Go. Si vous ne disposez pas de suffisamment d’espace disque, utilisez le terminal pour effacer au moins 1-2 Go avant d’arrêter ou redémarrer l’instance de calcul.
Pour effectuer l’inférence, Azure Machine Learning crée un conteneur Docker qui héberge le modèle et les ressources associées nécessaires pour l’utiliser. Ce conteneur est ensuite utilisé dans une cible de calcul.
La cible de calcul que vous utilisez pour héberger votre modèle affecte le coût et la disponibilité de votre point de terminaison déployé. Utilisez ce tableau pour choisir une cible de calcul appropriée.
Cible de calcul | Utilisé pour | Prise en charge GPU | Description |
---|---|---|---|
Points de terminaison Azure Machine Learning | Inférence en temps réel Inférence par lots |
Oui | Calculs complètement managés pour le scoring en temps réel (points de terminaison en ligne managés) et par lots (points de terminaison de lot) sur le calcul serverless. |
Azure Machine Learning Kubernetes | Inférence en temps réel Inférence par lots |
Oui | Exécutez des charges de travail d’inférence sur des clusters Kubernetes locaux, cloud et de périphérie. |
Cible de calcul | Utilisé pour | Prise en charge GPU | Description |
---|---|---|---|
Service web local | Test/débogage | Pour les tests et la résolution des problèmes limités. L’accélération matérielle dépend de l’utilisation de bibliothèques dans le système local. | |
Azure Machine Learning Kubernetes | Inférence en temps réel | Oui | Exécutez des charges de travail d’inférence dans le cloud. |
Azure Container Instances | Inférence en temps réel Recommandé à des fins de développement et de test uniquement. |
Pour les charges de travail à faible échelle basées sur le processeur qui nécessitent moins de 48 Go de RAM. Ne vous oblige pas à gérer un cluster. Convient uniquement aux modèles de moins de 1 Go de taille. Pris en charge dans le concepteur. |
Notes
Lors du choix d’une référence (SKU) de cluster, effectuez un scale-up, puis un scale-out. Commencez avec une machine disposant de 150 % de la RAM dont votre modèle a besoin, profilez le résultat et recherchez une machine présentant le niveau de performance dont vous avez besoin. Une fois celle-ci trouvée, augmentez le nombre de machine en fonction de vos besoins en matière d’inférence simultanée.
Azure Machine Learning crée et gère les ressources de calcul managées. Ce type de calcul est optimisé pour les charges de travail Machine Learning. Les clusters de calcul Azure Machine Learning, le calcul serverless et les instances de calcul sont les seuls calculs managés.
La création d’un calcul serverless n’est pas nécessaire. Vous pouvez créer des instances de calcul Azure Machine Learning ou des clusters de calcul depuis :
Notes
Au lieu de créer un cluster de calcul, utilisez le calcul serverless pour décharger la gestion du cycle de vie du calcul dans Azure Machine Learning.
Une fois créées, ces ressources de calcul font automatiquement partie de votre espace de travail, contrairement à d’autres types de cibles de calcul.
Fonctionnalité | Cluster de calcul | Instance de calcul |
---|---|---|
Cluster unique ou à plusieurs nœuds | ✓ | Cluster mononœud |
Mises à l’échelle automatique chaque fois que vous envoyez une tâche | ✓ | |
Gestion des clusters et planification automatiques des travaux | ✓ | ✓ |
Prise en charge des ressources UC et GPU | ✓ | ✓ |
Notes
Pour éviter des frais lorsque le calcul est inactif :
Important
Si vos clusters ou votre instance de calcul sont basés sur l’une de ces séries, recréez-les avec une autre taille de machine virtuelle.
Ces séries ont été mises hors service le 31 août 2023 :
Ces séries ont été mises hors service le 31 août 2024 :
Lorsque vous sélectionnez une taille de nœud pour une ressource de calcul managée dans Azure Machine Learning, vous pouvez choisir parmi les tailles de machines virtuelles disponibles dans Azure. Azure propose une gamme de tailles de machines virtuelles Windows et Linux pour différentes charges de travail. Pour plus d’informations, consultez Types et tailles des machines virtuelles.
Quelques exceptions et limites s’appliquent quant au choix d’une taille de machine virtuelle :
Pour en savoir plus sur les séries prises en charge, consultez le tableau suivant.
Série de machines virtuelles prises en charge | Catégorie | Pris en charge par |
---|---|---|
DDSv4 | Usage général | Clusters et instance de calcul |
Dv2 | Usage général | Clusters et instance de calcul |
Dv3 | Usage général | Clusters et instance de calcul |
DSv2 | Usage général | Clusters et instance de calcul |
DSv3 | Usage général | Clusters et instance de calcul |
EAv4 | Mémoire optimisée | Clusters et instance de calcul |
Ev3 | Mémoire optimisée | Clusters et instance de calcul |
ESv3 | Mémoire optimisée | Clusters et instance de calcul |
FSv2 | Optimisé pour le calcul | Clusters et instance de calcul |
FX | Optimisé pour le calcul | Clusters de calcul |
H | Calcul haute performance | Clusters et instance de calcul |
HB | Calcul haute performance | Clusters et instance de calcul |
HBv2 | Calcul haute performance | Clusters et instance de calcul |
HBv3 | Calcul haute performance | Clusters et instance de calcul |
HC | Calcul haute performance | Clusters et instance de calcul |
LSv2 | Optimisé pour le stockage | Clusters et instance de calcul |
M | Mémoire optimisée | Clusters et instance de calcul |
NC | GPU | Clusters et instance de calcul |
NC Promo | GPU | Clusters et instance de calcul |
NCv2 | GPU | Clusters et instance de calcul |
NCv3 | GPU | Clusters et instance de calcul |
ND | GPU | Clusters et instance de calcul |
NDv2 | GPU | Clusters et instance de calcul |
NV | GPU | Clusters et instance de calcul |
NVv3 | GPU | Clusters et instance de calcul |
NCasT4_v3 | GPU | Clusters et instance de calcul |
NDasrA100_v4 | GPU | Clusters et instance de calcul |
Même si Azure Machine Learning prend en charge ces séries de machines virtuelles, elles peuvent ne pas être disponibles dans toutes les régions Azure. Pour vérifier si les séries de machines virtuelles sont disponibles, consultez Disponibilité des produits par région.
Notes
Azure Machine Learning ne prend pas en charge toutes les tailles de machines virtuelles prises en charge par Azure Compute. Pour lister les tailles de machine virtuelle disponibles, utilisez la méthode suivantes :
Notes
Azure Machine Learning ne prend pas en charge toutes les tailles de machines virtuelles prises en charge par Azure Compute. Pour répertorier les tailles de machine virtuelle disponibles prises en charge par des types de machines virtuelles de calcul spécifiques, utilisez l’une des méthodes suivantes :
Si vous utilisez les cibles de calcul avec GPU, il est important de vérifier que les pilotes CUDA corrects sont installés dans l’environnement d’apprentissage. Pour déterminer la version de CUDA correcte à utiliser, reportez-vous au tableau suivant :
Architecture GPU | Série Machines virtuelles Azure | Versions de CUDA prises en charge |
---|---|---|
Ampere | NDA100_v4 | 11.0+ |
Turing | NCT4_v3 | 10.0+ |
Volta | NCv3, NDv2 | 9.0+ |
Pascal | NCv2, ND | 9.0+ |
Maxwell | NV, NVv3 | 9.0+ |
Kepler | NC, NC Promo | 9.0+ |
En plus de vérifier la compatibilité des versions de CUDA avec le matériel, vérifiez que la version de CUDA est compatible avec la version du framework de Machine Learning que vous utilisez :
Le calcul Azure Machine Learning offre des tailles de machines virtuelles qui sont isolées dans un type de matériel spécifique et qui sont dédiées à un client unique. Les tailles de machines virtuelles isolées sont les mieux adaptées aux charges de travail qui nécessitent un niveau élevé d’isolement par rapport aux charges de travail des autres clients pour des raisons de conformité et d’exigences réglementaires, entre autres. L’utilisation d’une taille isolée garantit que votre machine virtuelle est la seule machine à s’exécuter sur cette instance de serveur spécifique.
Les offres actuelles de machines virtuelles isolées sont les suivantes :
Pour en savoir plus sur l’isolement, consultez Isolation dans le cloud public Azure.
Azure Machine Learning ne gère pas une cible de calcul non managée. Vous créez ce type de cible de calcul en dehors d’Azure Machine Learning, puis l’attachez à votre espace de travail. Des ressources de calcul non managées peuvent nécessiter des étapes supplémentaires pour maintenir ou améliorer les performances des charges de travail Machine Learning.
Azure Machine Learning prend en charge les types de calcul non managés suivants :
Pour plus d’informations, consultez Gérer les ressources de calcul.
Événements
Relevez le défi Microsoft Learn
19 nov., 23 h - 10 janv., 23 h
Ignite Edition - Créez des compétences dans Microsoft Azure et gagnez un badge numérique d’ici le 10 janvier !
S’inscrire maintenantEntrainement
Module
Utiliser des cibles de calcul dans Azure Machine Learning - Training
Découvrez comment utiliser des cibles de calcul dans Azure Machine Learning. Les cibles de calcul vous permettent d’exécuter vos charges de travail Machine Learning. Découvrez comment et quand vous pouvez utiliser une instance de calcul ou un cluster de calcul.
Certification
Microsoft Certified : Azure Data Scientist Associate - Certifications
Gérer l’ingestion et la préparation des données, l’entraînement et le déploiement des modèles, ainsi que la surveillance des solutions d’apprentissage automatique avec Python, Azure Machine Learning et MLflow.