Partager via


CycleCloud version 8.5.0

Nouvelles fonctionnalités :

  • CycleCloud prend en charge les machines virtuelles confidentielles et le lancement de plateforme approuvée pour les nœuds de cluster
  • CycleCloud prend en charge l’exécution des vérifications d’intégrité des nœuds pendant le démarrage pour valider l’intégrité du matériel du nœud avant de joindre le cluster avec les dernières images AzureHPC. Pour plus d’informations, consultez Vérifications d’intégrité Azure HPC
  • Les formulaires de création de cluster prennent désormais en charge les éléments suivants :
    • Configuration du chiffrement de disque pour tous les nœuds de cluster
    • Affectation d’une identité managée à des nœuds de cluster
    • Définition d’une taille de disque de démarrage/de système d’exploitation personnalisée
    • Activation des contrôles d’intégrité des nœuds
  • CycleCloud prend en charge Windows Server 2019 et Windows Server 2022
  • CycleCloud prend désormais en charge HPC Pack 2019
  • Le type de cluster Slurm de CycleCloud active désormais le démon Slurm RESTd
  • Le type de cluster Slurm de CycleCloud prend désormais en charge Ubuntu 22
  • Nouveau programme d’installation de l’interface CLI CycleCloud de remplacement avec Python groupé pour une installation hors connexion ou sur des systèmes plus anciens

Problèmes résolus :

  • L’installation de Slurm échouerait avec KeyError: 'ClusterId' si les balises étaient remplacées en minuscules
  • Le filtre de sélection Type de machine pour le calcul haute performance n’incluait pas HBv4
  • Le programme d’installation de l’interface CLI CycleCloud traditionnel ne vérifie pas correctement Python 3.8+
  • Le démarrage automatique du service CycleCloud avait une condition de concurrence avec le montage des disques de données attachés, ce qui pouvait entraîner l’échec du service CycleCloud au premier démarrage.
  • La copie d’un cluster peut perdre la spécification cluster-init associée
  • Les clusters Slurm avec des espaces dans leur nom ne convergeraient pas
  • « Aucun nœud trouvé pour instance » a été journalisé au démarrage des clusters
  • La page de connexion n’affichait pas l’utilisateur actuellement connecté
  • Les nœuds GridEngine inactifs ont été supprimés immédiatement après le démarrage d’un travail
  • La modification d’un nœud pour apporter des modifications, puis la réimportation du cluster réinitialise ces modifications
  • L’étiquette du bouton De démarrage/arrêt du cluster est encapsulée pendant la fin du cluster