Recommandations en matière de performances
Les recommandations d’Azure Advisor en matière de performances peuvent contribuer à améliorer la vitesse et la réactivité de vos applications stratégiques. Vous pouvez obtenir des recommandations en matière de performances à l’aide d’Advisor dans l’onglet Performances du tableau de bord d’Advisor.
Connectez-vous au portail Azure.
Recherchez et sélectionnez Advisor à partir de n’importe quelle page.
Dans le tableau de bord Advisor, sélectionnez l’onglet Performances.
IA + Machine Learning
429 Limitation détectée sur cette ressource
Nous avons observé qu’il y avait au moins 1 000 erreurs de limitation type 429 sur cette ressource dans un délai d’un jour. Envisagez d’activer la mise à l’échelle automatique pour mieux gérer les volumes d’appels plus élevés et réduire le nombre d’erreurs 429.
Découvrez la Mise à l’échelle automatique d’Azure AI services.
Dépréciation de la version du modèle d’analyse de texte
Mettez à niveau la version du modèle vers une plus récente ou la dernière version pour utiliser les modèles les plus récents et de meilleure qualité.
En savoir plus sur Cognitive Service : TAUpgradeToLatestModelVersion (Dépréciation de version du modèle d’analyse de texte).
Dépréciation de la version du modèle d’analyse de texte
Mettez à niveau la version du modèle vers une plus récente ou la dernière version pour utiliser les modèles les plus récents et de meilleure qualité.
En savoir plus sur Cognitive Service : TAUpgradeModelVersiontoLatest (Dépréciation de version du modèle d’analyse de texte).
Effectuer une mise à niveau vers la dernière version de l’API Analyse de texte de Cognitive Services
Effectuez une mise à niveau vers la dernière version de l’API pour obtenir les meilleurs résultats en matière de qualité du modèle, de performances et de disponibilité du service. De nouvelles fonctionnalités sont également disponibles en tant que nouveaux points de terminaison à partir de la version 3.0, comme la reconnaissance des données personnelles, la reconnaissance d’entité et la liaison d’entités, disponibles en tant que points de terminaison distincts. En ce qui concerne les changements des points de terminaison en préversion, nous avons l’exploration des opinions dans le point de terminaison SA et la propriété de texte rédigé dans le point de terminaison de données personnelles
En savoir plus sur le service cognitif : UpgradeToLatestAPI (Effectuer une mise à niveau vers la dernière version de l’API Analyse de texte de Cognitive Services).
Effectuer une mise à niveau vers la dernière version de l’API d’Azure Cognitive Service for Language
Effectuez une mise à niveau vers la dernière version de l’API pour obtenir les meilleurs résultats en matière de qualité du modèle, de performances et de disponibilité du service.
En savoir plus sur le service cognitif : UpgradeToLatestAPILanguage (Effectuer une mise à niveau vers la dernière version de l’API d’Azure Cognitive Service for Language).
Effectuer une mise à niveau vers la dernière version du SDK Analyse de texte de Cognitive Services
Effectuez une mise à niveau vers la dernière version du Kit de développement logiciel (SDK) pour obtenir les meilleurs résultats en matière de qualité du modèle, de performances et de disponibilité du service. De nouvelles fonctionnalités sont également disponibles en tant que nouveaux points de terminaison à partir de la version 3.0, comme la reconnaissance des données personnelles, la reconnaissance d’entité et la liaison d’entités, disponibles en tant que points de terminaison distincts. En ce qui concerne les changements des points de terminaison en préversion, nous avons l’exploration des opinions dans le point de terminaison SA et la propriété de texte rédigé dans le point de terminaison de données personnelles
En savoir plus sur le service cognitif : UpgradeToLatestSDK (Effectuer une mise à niveau vers la dernière version du SDK Analyse de texte de Cognitive Services).
Effectuer une mise à niveau vers la dernière version du SDK Langue de Cognitive Services
Effectuez une mise à niveau vers la dernière version du Kit de développement logiciel (SDK) pour obtenir les meilleurs résultats en matière de qualité du modèle, de performances et de disponibilité du service.
En savoir plus sur le service cognitif : UpgradeToLatestSDKLanguage (Effectuer une mise à niveau vers la dernière version du SDK Langue de Cognitive Services).
Effectuer une mise à niveau vers la dernière version du Kit de développement logiciel (SDK) Azure AI Language
Effectuez une mise à niveau vers la dernière version du Kit de développement logiciel (SDK) pour obtenir les meilleurs résultats en matière de qualité du modèle, de performances et de disponibilité du service. De nouvelles fonctionnalités sont également disponibles en tant que nouveaux points de terminaison à partir de la version 3.0, comme la reconnaissance des données personnelles, la reconnaissance d’entité et la liaison d’entités, disponibles en tant que points de terminaison distincts. En ce qui concerne les changements des points de terminaison en préversion, nous avons l’exploration des opinions dans le point de terminaison SA et la propriété de texte rédigé dans le point de terminaison de données personnelles.
Découvrez Azure AI Language.
Analyse
Dimensionnez correctement les ressources Data Explorer pour optimiser le niveau de performance.
Cette recommandation concerne toutes les ressources Data Explorer qui dépassent la capacité de données recommandée (80 %). L’action recommandée pour améliorer le niveau de performance consiste à effectuer une mise à l’échelle selon la configuration recommandée indiquée.
En savoir plus sur la ressource Data Explorer : Bien dimensionner la ressource ADX (Dimensionner correctement les ressources Data Explorer pour optimiser le niveau de performance).
Passer en revue les stratégies de cache de table pour les tables Data Explorer
Cette recommandation expose les tables Data Explorer ayant un grand nombre de requêtes qui dépassent la période de mise en cache configurée (stratégie) (vous voyez les 10 tables qui accèdent le plus aux données hors cache, en pourcentage de requêtes). L’action recommandée pour améliorer le niveau de performance du cluster est la suivante : limitez le nombre de requêtes sur cette table au minimum nécessaire (tout en restant dans l’intervalle de temps défini par la stratégie). Si l’intégralité des données de l’intervalle de temps sont nécessaires, vous pouvez également augmenter la période de mise en cache vers la valeur recommandée.
En savoir plus sur la ressource Data Explorer : UpdateCachePoliciesForAdxTables (Passer en revue les stratégies de mise en cache de table pour les tables Data Explorer).
Réduire la stratégie de cache de table Data Explorer pour un meilleur niveau de performance
La réduction de la stratégie de cache de table libère les données non utilisées du cache de la ressource et améliore le niveau de performance.
Augmenter le cache dans la stratégie de cache
En fonction de votre utilisation réelle au cours du mois dernier, mettez à jour la stratégie de cache pour augmenter le cache chaud de la table. La période de rétention doit toujours être supérieure à la période de cache. Si vous augmentez le cache et que la période de rétention est inférieure à la période de cache, mettez à jour la stratégie de rétention. L’analyse est basée uniquement sur les requêtes utilisateur qui ont analysé des données.
En savoir plus sur Ressource Data explorer : IncreaseCacheForAzureDataExplorerTablesToImprovePerformance (Augmenter le cache dans la stratégie de cache).
Activer la mise à l’échelle automatique optimisée pour les ressources Data Explorer.
Il semble que votre ressource ait pu être automatiquement mise à l’échelle pour améliorer la performance (en fonction de votre utilisation réelle au cours de la semaine dernière, de l’utilisation du cache, de l’utilisation de l’ingestion, de l’utilisation du processeur et de l’ingestion de streaming). Pour optimiser les coûts et les performances, nous vous recommandons d’activer la mise à l’échelle automatique optimisée.
En savoir plus sur Ressource Data Explorer : PerformanceEnableOptimizedAutoscaleAzureDataExplorer (Activer la mise à l’échelle automatique optimisée pour les ressources Data Explorer).
Les lectures se produisent sur les données les plus récentes
Plus de 75 % de vos demandes de lecture arrivent sur le memstore, ce qui indique que les lectures sont principalement sur les données récentes. Les lectures de données récentes suggèrent que même si un vidage se produit sur le memstore, le fichier récent doit être accessible et placé dans le cache.
En savoir plus sur le cluster HDInsight : HBaseMemstoreReadPercentage (Les lectures se produisent sur les données les plus récentes).
Envisagez d’utiliser la fonctionnalité Écritures accélérées dans votre cluster HBase pour améliorer les performances du cluster.
Vous voyez cette recommandation du conseiller, car le journal système de l’équipe HDInsight indique que, au cours des sept derniers jours, votre cluster a rencontré les scénarios suivants :
Latence élevée de la durée de synchronisation du journal WAL
Nombre élevé de demandes d’écriture (au moins 3 fenêtres d’une heure de plus de 1000 demandes d’écriture moyennes par seconde et par nœud)
Ces conditions sont des indicateurs que votre cluster subit des latences d’écriture élevées, ce qui peut être dû à une charge de travail importante sur votre cluster.
Pour améliorer les performances de votre cluster, vous pouvez envisager d’utiliser la fonctionnalité Écritures accélérées fournie par Azure HDInsight HBase. La fonctionnalité Écritures accélérées pour les clusters HDInsight Apache HBase associe des disques SSD managés Premium à chaque serveur de région (nœud Worker) au lieu d’utiliser le stockage cloud. Ainsi, elle offre une faible latence en écriture et une meilleure résilience pour vos applications.
Pour en savoir plus sur cette fonctionnalité, consultez le lien suivant :
En savoir plus sur le cluster HDInsight : AccWriteCandidate (Envisager d’utiliser la fonctionnalité Écritures accélérées dans votre cluster HBase pour améliorer les performances du cluster).
Plus de 75 % de vos requêtes sont des requêtes d’analyse complète
Plus de 75 % des requêtes d’analyse sur votre cluster exécutent une analyse complète de la région/table. Modifiez vos requêtes d’analyse pour éviter les analyses complètes de la région ou de la table.
En savoir plus sur le cluster HDInsight : ScanQueryTuningcandidate (Plus de 75 % de vos requêtes sont des requêtes d’analyse complète).
Vérifier le nombre de régions dans la mesure où des mises à jour sont bloquées
Le nombre de régions doit être ajusté pour éviter le blocage des mises à jour. Vous devrez peut-être effectuer un scale-up du cluster en ajoutant de nouveaux nœuds.
En savoir plus sur le cluster HDInsight : RegionCountCandidate (Vérifiez le nombre de régions dans la mesure où des mises à jour sont bloquées).
Songer à augmenter les threads du dispositif de vidage
La taille de la file d’attente de vidage dans les serveurs de votre région est supérieure à 100 ou des mises à jour sont fréquemment bloquées. Il est recommandé de régler le gestionnaire de vidage.
En savoir plus sur le cluster HDInsight : FlushQueueCandidate (Songer à augmenter les threads du dispositif de vidage).
Envisager d’augmenter vos threads de compactage pour accélérer l’exécution des compactages
La file d’attente de compactage dans les serveurs de votre région est supérieure à 2000, ce qui suggère que davantage de données doivent être compactées. Des compactages plus lents peuvent affecter les performances de lecture, dans la mesure où le nombre de fichiers à lire est plus important. Un plus grand nombre de fichiers sans compactage peut également affecter l’utilisation du tas liée au mode d’interaction des fichiers avec le système de fichiers Azure.
En savoir plus sur le cluster HDInsight : CompactionQueueCandidate (Envisager d’augmenter vos threads de compactage pour accélérer l’exécution des compactages).
Tables avec des index ColumnStore cluster comprenant moins de 60 millions de lignes
Les tables columnstore en cluster sont organisées en données dans les segments. Une qualité de segment élevée est essentielle pour atteindre des performances des requêtes optimales sur une table columnstore. Vous pouvez mesurer la qualité d’un segment grâce au nombre de lignes dans un groupe de lignes compressé.
En savoir plus sur l’espace de travail Synapse : SynapseCCIGuidance (Tables avec des index Columnstore en cluster comprenant moins de 60 millions de lignes).
Mettre à jour la version du SDK SynapseManagementClient
Le nouvel élément SynapseManagementClient utilise le SDK .NET 4.0 ou version ultérieure.
En savoir plus sur l’espace de travail Synapse : UpgradeSynapseManagementClientSDK (Mettre à jour la version du SDK SynapseManagementClient).
Compute
L’utilisation de la capacité vSAN a dépassé le seuil critique
Votre utilisation de la capacité vSAN a atteint 75 %. L’utilisation du cluster est nécessaire pour rester au-dessous du seuil critique de 75 %, dans le cadre de la conformité au contrat SLA. Ajoutez des nœuds au cluster vSphere pour augmenter la capacité, supprimez des machines virtuelles afin de réduire la consommation ou ajustez les charges de travail des machines virtuelles
En savoir plus sur cloud privé Azure VMware Solution – vSANCapacity (L’utilisation de la capacité du vSAN a franchi un seuil critique).
Mettre à jour Automanage vers la dernière version de l’API
Nous avons identifié des appels de SDK provenant d’une version obsolète de l’API pour les ressources de cet abonnement. Nous vous recommandons de passer aux dernières versions du kit de développement logiciel (SDK) pour vous assurer que vous recevez les dernières fonctionnalités et améliorations des performances.
En savoir plus sur la machine virtuelle : UpdateToLatestApi (mettre à jour Automanage vers la dernière version de l’API).
Améliorez l’expérience utilisateur et la connectivité en déployant des machines virtuelles plus proches de la localisation de l’utilisateur.
Nous avons déterminé que vos machines virtuelles se trouvaient dans une région différente ou éloignée de celle où vos utilisateurs se connectent à l’aide d’Azure Virtual Desktop. Les régions utilisateur distantes peuvent entraîner des temps de réponse de connexion prolongés et affecter l’expérience utilisateur globale.
Utiliser des disques managés pour éviter la limitation des E/S de disque
Vos disques de machine virtuelle appartiennent à un compte de stockage qui a atteint sa cible de scalabilité et qui est sensible à la limitation d’E/S. Pour protéger votre machine virtuelle d’une dégradation des performances et pour simplifier la gestion du stockage, utilisez des disques managés.
En savoir plus sur la machine virtuelle : ManagedDisksStorageAccount (Utiliser des disques managés pour éviter la limitation des E/S de disque).
Convertir des disques managés HDD Standard en SSD Premium à des fins de performances
Nous avons remarqué que votre disque HDD Standard approche des objectifs de performances. Les disques SSD Premium Azure offrent une prise en charge très performante et une faible latence pour les machines virtuelles avec des charges de travail gourmandes en E/S. Améliorez les performances de votre disque en convertissant votre disque HDD Standard en disque SSD Premium. La mise à niveau requiert un redémarrage de la machine virtuelle qui prend de trois à cinq minutes.
En savoir plus sur le disque : MDHDDtoPremiumForPerformance (Convertir des disques managés HDD Standard en SSD Premium à des fins de performances).
Activer l’accélération réseau pour améliorer les performances et la latence du réseau
Nous avons détecté que les performances réseau accélérées n’était pas activée sur les ressources de machine virtuelle dans votre déploiement susceptible de prendre en charge cette fonctionnalité. Si votre image de système d’exploitation de machine virtuelle prend en charge l’accélération réseau, comme indiqué dans la documentation, veillez à activer cette fonctionnalité gratuite sur ces machines virtuelles afin d’optimiser les performances et la latence de vos charges de travail réseau dans le cloud.
En savoir plus sur la machine virtuelle : AccelNetConfiguration (Activer les performances réseau accélérées pour améliorer les performances et la latence du réseau).
Utiliser des disques SSD pour vos charges de travail de production
Nous avons remarqué que vous utilisez des disques SSD alors que vous utilisez également des disques HDD Standard sur la même machine virtuelle. Les disques managés HDD Standard sont recommandés pour le développement/test et la sauvegarde ; nous vous recommandons d’utiliser des disques SSD Premium ou Standard pour la production. Les disques SSD Premium offrent une prise en charge des disques très performante et à faible latence pour les machines virtuelles avec des charges de travail gourmandes en E/S. Les disques SSD Standard offrent une latence cohérente et plus faible. Mettez à niveau votre configuration de disque dès aujourd’hui pour améliorer la latence, la fiabilité et la disponibilité. La mise à niveau requiert un redémarrage de la machine virtuelle qui prend de trois à cinq minutes.
En savoir plus sur la machine virtuelle : MixedDiskTypeToSSDPublic (Utiliser des disques SSD pour vos charges de travail de production).
Faire correspondre les machines virtuelles de production avec les disques de production pour obtenir des performances cohérentes et une meilleure latence
Les machines virtuelles de production nécessitent des disques de production si vous souhaitez obtenir des performances optimales. Nous voyons que vous exécutez une machine virtuelle au niveau de la production. Toutefois, vous utilisez un disque à faible performance de type SSD Standard. La mise à niveau des disques attachés à vos disques de production, SSD Standard ou SSD Premium, vous permet de bénéficier d’une expérience plus cohérente et d’améliorations de la latence.
Les performances réseau accélérées peuvent nécessiter l’arrêt et le démarrage de la machine virtuelle
Nous avons détecté que les performances réseau accélérées ne sont pas activées sur les ressources de machine virtuelle dans votre déploiement existant, bien que cette fonctionnalité ait été demandée. Dans de rares cas comme celui-ci, il peut être nécessaire d’arrêter et de démarrer votre machine virtuelle, à votre convenance, pour relancer les performances réseau accélérées.
En savoir plus sur Machine virtuelle : AccelNetDisengaged (Les performances réseau accélérées peuvent nécessiter l’arrêt et le démarrage de la machine virtuelle).
Tirer parti de la faible latence des disques Ultra pour vos disques de journal et améliorer les performances des charges de travail de votre base de données
Le disque Ultra est disponible dans la même région que la charge de travail de votre base de données. Le disque Ultra offre un stockage sur disque présentant un débit élevé, un nombre d’IOPS élevé et une faible latence homogène pour les charges de travail de votre base de données : pour les bases de données Oracle, vous pouvez désormais utiliser des tailles de secteur de 4 K ou 512E avec le disque Ultra, en fonction de votre version d’Oracle DB. Pour SQL Server, l’utilisation d’un disque Ultra comme disque de journal peut offrir de meilleures performances pour votre base de données. Consultez les instructions ici pour migrer votre disque de journal vers le disque Ultra.
Mettre à niveau la taille de vos machines virtuelles les plus actives pour éviter l’épuisement des ressources et améliorer les performances
Nous avons analysé les données des sept derniers jours et identifié les machines virtuelles hautement utilisées selon différentes métriques (processeur, mémoire et E/S de machine virtuelle). Ces machines virtuelles peuvent présenter des problèmes de performances, car elles se rapprochent des limites de leur référence SKU. Envisagez de mettre à niveau leur référence SKU pour améliorer les performances.
Containers
Une version de Kubernetes non prise en charge est détectée
Une version de Kubernetes non prise en charge est détectée. Vérifiez que le cluster Kubernetes s’exécute avec une version prise en charge.
En savoir plus sur le service Kubernetes : UnsupportedKubernetesVersionIsDetected (Une version de Kubernetes non prise en charge est détectée).
Une version de Kubernetes non prise en charge est détectée
Une version de Kubernetes non prise en charge est détectée. Vérifiez que le cluster Kubernetes s’exécute avec une version prise en charge.
En savoir plus sur le pool de clusters HDInsight : UnsupportedHiloAKSVersionIsDetected (version Kubernetes non prise en charge est détectée).
Clusters avec un pool à nœud unique
Nous vous recommandons d’ajouter un ou plusieurs pools de nœuds au lieu d’utiliser un pool de nœuds unique. Plusieurs pools permettent d’isoler les pods système cruciaux de votre application afin d’éviter que des pods d’application mal configurés ou malveillants ne tuent accidentellement les pods système.
En savoir plus sur Service Kubernetes : ClustersWithASingleNodePool (Clusters avec un pool à nœud unique).
Mettre à jour l’API de flotte vers la version la plus récente
Nous avons identifié des appels SDK provenant d’une version obsolète de l’API de flotte pour les ressources de votre abonnement. Nous vous recommandons de passer à la dernière version du kit de développement logiciel (SDK) pour vous assurer que vous recevez les dernières fonctionnalités et améliorations des performances.
En savoir plus sur Gestionnaire de flotte Kubernetes | PRÉVERSION : UpdateToLatestFleetApi (Mettre à jour l’API de flotte vers la version la plus récente).
Bases de données
Définir la taille de page de votre requête Azure Cosmos DB (MaxItemCount) avec la valeur -1
Vous utilisez une taille de page de requête de 100 pour votre conteneur Azure Cosmos DB. Nous vous recommandons d’utiliser une taille de page de -1 pour des analyses plus rapides.
En savoir plus sur le compte Azure Cosmos DB : CosmosDBQueryPageSize (définir la taille de page de votre requête Azure Cosmos DB [MaxItemCount] avec la valeur -1).
Ajouter des index composites à votre conteneur Azure Cosmos DB
Vos conteneurs Azure Cosmos DB exécutent des requêtes ORDER BY, ce qui entraîne des frais de demandes d’unités de requête (RU) élevés. Nous vous recommandons d’ajouter des index composites à la stratégie d’indexation de vos conteneurs afin d’améliorer la consommation d’unités de requête et de réduire la latence de ces requêtes.
En savoir plus sur le compte Azure Cosmos DB : CosmosDBOrderByHighRUCharge (ajouter des index composites à votre conteneur Azure Cosmos DB).
Optimiser votre stratégie d’indexation Azure Cosmos DB pour indexer uniquement ce qui est nécessaire
Vos conteneurs Azure Cosmos DB utilisent la stratégie d’indexation par défaut, qui indexe chaque propriété dans vos documents. Dans la mesure où vous stockez des documents volumineux, un grand nombre de propriétés sont indexées, ce qui entraîne une consommation d’unités de requête élevée et une faible latence d’écriture. Pour optimiser les performances en écriture, nous vous recommandons de remplacer la stratégie d’indexation par défaut de façon à indexer uniquement les propriétés utilisées dans vos requêtes.
En savoir plus sur le compte Azure Cosmos DB : CosmosDBDefaultIndexingWithManyPaths (optimiser votre stratégie d’indexation Azure Cosmos DB pour indexer uniquement ce qui est nécessaire).
Utiliser des clés de partition hiérarchiques pour une distribution optimale des données
Votre compte dispose d’un paramètre personnalisé qui permet à la taille de la partition logique d’un conteneur de dépasser la limite de 20 Go. L’équipe Azure Cosmos DB a appliqué ce paramètre comme une mesure temporaire pour vous permettre de remanier votre application avec une clé de partition différente. Cela n’est pas recommandé comme solution à long terme, car les garanties du contrat SLA ne sont pas honorées lorsque la limite est augmentée. Vous pouvez maintenant utiliser des clés de partition hiérarchiques (préversion) pour remanier l’architecture de votre application. Cette fonctionnalité vous permet de dépasser la limite de 20 Go en définissant jusqu’à trois clés de partition, ce qui est idéal pour les scénarios multilocataires ou les charges de travail qui utilisent des clés synthétiques.
En savoir plus sur le compte Azure Cosmos DB : CosmosDBHierarchicalPartitionKey (utiliser des clés de partition hiérarchiques pour une distribution optimale des données).
Configurer vos applications Azure Cosmos DB pour utiliser une connectivité directe dans le SDK
Nous avons remarqué que vos applications Azure Cosmos DB utilisent le mode Passerelle par le biais des SDK Azure Cosmos DB .NET ou Java. Nous vous recommandons de passer à une connectivité directe pour bénéficier d’une latence inférieure et d’une meilleure scalabilité.
En savoir plus sur le compte Azure Cosmos DB : CosmosDBGatewayMode (configurer vos applications Azure Cosmos DB pour utiliser une connectivité directe dans le SDK).
Améliorer les performances en passant à l'échelle supérieure pour une utilisation optimale des ressources
Il est essentiel de maximiser l'efficacité des ressources de votre système pour maintenir des performances optimales. Notre système surveille étroitement l'utilisation de l'unité centrale et, lorsqu'elle dépasse le seuil de 90 % sur une période de 12 heures, une alerte proactive est déclenchée. Cette alerte informe non seulement les utilisateurs du cœur virtuel Azure Cosmos DB for MongoDB de la consommation élevée de CPU, mais fournit également des conseils précieux sur la mise à l'échelle vers un niveau supérieur. En passant à un niveau plus robuste, vous pouvez améliorer les performances et vous assurer que votre système fonctionne au maximum de son potentiel.
En savoir plus sur Mise à l’échelle et configuration de votre cluster du cœur virtuel Azure Cosmos DB for MongoDB.
PerformanceBoostervCore
Lorsque l’utilisation du processeur dépasse 90 % sur une période de 12 heures, les utilisateurs sont avertis de l’utilisation élevée. En outre, on leur conseille d’effectuer une mise à l’échelle à un niveau supérieur pour obtenir de meilleures performances.
En savoir plus sur Compte Cosmos DB : ScaleUpvCoreRecommendation (PerformanceBoostervCore).
Mettre à l’échelle la limite de stockage pour le serveur MariaDB
Notre système montre que le serveur est peut-être limité, car il est proche des limites pour les valeurs du stockage provisionné. L’approche des limites de stockage peut entraîner une dégradation des performances ou le passage du serveur en mode lecture seule. Pour maintenir le niveau de performance, il est recommandé d’augmenter la quantité de stockage provisionné ou d’activer la fonctionnalité de « croissance automatique » pour les augmentations de stockage automatiques.
En savoir plus sur le serveur MariaDB : OrcasMariaDbStorageLimit (Mettre à l’échelle la limite de stockage pour le serveur MariaDB).
Augmenter le nombre de vCores du serveur MariaDB
Notre système montre que le processeur a fait l’objet d’une utilisation élevée pendant une longue période de temps sur les sept derniers jours. Une utilisation élevée du processeur peut conduire au ralentissement des performances des requêtes. Pour améliorer les performances, nous vous recommandons de passer à une taille de calcul plus grande.
En savoir plus sur le serveur MariaDB : OrcasMariaDbCpuOverload (Augmenter le nombre de vCores du serveur MariaDB).
Mettre à l’échelle le serveur MariaDB vers une référence SKU supérieure
Notre système montre que le serveur peut être incapable de prendre en charge les demandes de connexion en raison du nombre maximum de connexions prises en charge pour la référence SKU donnée, ce qui peut entraîner un grand nombre de demandes de connexion infructueuses qui affectent négativement les performances. Pour améliorer les performances, nous vous recommandons de passer à un niveau tarifaire avec une mémoire plus importante en augmentant le nombre de vCores ou en passant à des niveaux tarifaires Mémoire optimisée.
En savoir plus sur le serveur MariaDB : OrcasMariaDbConcurrentConnection (Mettre à l’échelle le serveur MariaDB vers un niveau tarifaire supérieur).
Déplacer votre serveur MariaDB vers un niveau tarifaire à mémoire optimisée
Notre système montre qu’il y a des mouvements importants dans le pool de mémoires tampons pour ce serveur, ce qui peut entraîner une baisse des performances des requêtes et une augmentation des IOPS. Pour améliorer les performances, passez en revue les requêtes de votre charge de travail pour identifier les possibilités de réduire la quantité de mémoire consommée. Si vous ne trouvez pas de telles opportunités, nous vous recommandons de passer une référence SKU supérieure avec davantage de mémoire ou d’augmenter la taille du stockage pour obtenir des IOPS plus élevées.
En savoir plus sur le serveur MariaDB : OrcasMariaDbMemoryCache (Déplacer votre serveur MariaDB vers un niveau tarifaire à mémoire optimisée).
Améliorer la fiabilité des journaux d’audit
Notre système indique une perte possible des journaux d’audit du serveur depuis hier. Les journaux d’audit perdus peuvent se produire quand votre serveur subit une charge de travail importante du processeur ou qu’un serveur génère beaucoup de journaux d’audit sur une courte période. Nous vous recommandons de journaliser uniquement les événements utiles à votre audit en utilisant les paramètres de serveur suivants : audit_log_events, audit_log_exclude_users, audit_log_include_users. Si l’utilisation du processeur sur votre serveur est élevée en raison de votre charge de travail, nous vous recommandons d’augmenter les vCores du serveur pour améliorer les performances.
En savoir plus sur le serveur MariaDB : OrcasMariaDBAuditLog (Améliorer la fiabilité des journaux d’audit).
Mettre à l’échelle la limite de stockage pour le serveur MySQL
Notre système montre que le serveur est peut-être limité, car il est proche des limites pour les valeurs du stockage provisionné. L’approche des limites de stockage peut entraîner une dégradation des performances ou le passage du serveur en mode lecture seule. Pour maintenir le niveau de performance, il est recommandé d’augmenter la quantité de stockage provisionné ou d’activer la fonctionnalité de « croissance automatique » pour les augmentations de stockage automatiques.
En savoir plus sur le serveur MySQL : OrcasMySQLStorageLimit (Mettre à l’échelle la limite de stockage pour le serveur MySQL).
Passer le serveur MySQL à une référence SKU supérieure
Notre système montre que le serveur peut être incapable de prendre en charge les demandes de connexion en raison du nombre maximum de connexions prises en charge pour la référence SKU donnée, ce qui peut entraîner un grand nombre de demandes de connexion infructueuses qui affectent négativement les performances. Pour améliorer les performances, nous vous recommandons de passer à un niveau tarifaire avec une mémoire plus importante en augmentant le nombre de vCores ou en passant à des niveaux tarifaires Mémoire optimisée.
En savoir plus sur le serveur MySQL : OrcasMySQLConcurrentConnection (Passer le serveur MySQL vers un niveau tarifaire supérieur).
Augmenter le nombre de vCores du serveur MySQL
Notre système montre que le processeur a fait l’objet d’une utilisation élevée pendant une longue période de temps sur les sept derniers jours. Une utilisation élevée du processeur peut conduire au ralentissement des performances des requêtes. Pour améliorer les performances, nous vous recommandons de passer à une taille de calcul plus grande.
En savoir plus sur le serveur MySQL : OrcasMySQLCpuOverload (Augmenter le nombre de vCores du serveur MySQL).
Passer votre serveur MySQL à la référence SKU Mémoire optimisée
Notre système montre qu’il y a des mouvements importants dans le pool de mémoires tampons pour ce serveur, ce qui peut entraîner une baisse des performances des requêtes et une augmentation des IOPS. Pour améliorer les performances, passez en revue les requêtes de votre charge de travail pour identifier les possibilités de réduire la quantité de mémoire consommée. Si vous ne trouvez pas de telles opportunités, nous vous recommandons de passer une référence SKU supérieure avec davantage de mémoire ou d’augmenter la taille du stockage pour obtenir des IOPS plus élevées.
En savoir plus sur le serveur MySQL : OrcasMySQLMemoryCache (Passer votre serveur MySQL au niveau tarifaire Mémoire optimisée).
Ajouter un serveur réplica en lecture MySQL
Notre système montre que vous pouvez avoir une charge de travail de lecture intensive en cours d’exécution, ce qui entraîne une contention des ressources pour ce serveur. La contention des ressources peut conduire au ralentissement des performances des requêtes pour le serveur. Pour améliorer les performances, nous vous recommandons d’ajouter un réplica en lecture et de décharger certaines de vos charges de travail de lecture sur le réplica.
En savoir plus sur le serveur MySQL : OrcasMySQLReadReplica (Ajouter un serveur de réplica en lecture MySQL).
Améliorer la gestion des connexions MySQL
Notre système montre que votre application qui se connecte au serveur MySQL gère peut-être mal les connexions, ce qui peut entraîner une consommation inutile de ressources et une augmentation générale de la latence de l’application. Pour améliorer la gestion des connexions, nous vous recommandons de réduire le nombre de connexions à courte durée de vie et d’éliminer les connexions inactives non nécessaires. Pour ce faire, configurez un outil de regroupement des connexions côté serveur, comme ProxySQL.
En savoir plus sur le serveur MySQL : OrcasMySQLConnectionPooling (Améliorer la gestion des connexions MySQL).
Améliorer la fiabilité des journaux d’audit
Notre système indique une perte possible des journaux d’audit du serveur depuis hier. Cela peut arriver quand votre serveur subit une charge de travail importante du processeur ou qu’un serveur génère beaucoup de journaux d’audit sur une courte période. Nous vous recommandons de journaliser uniquement les événements utiles à votre audit en utilisant les paramètres de serveur suivants : audit_log_events, audit_log_exclude_users, audit_log_include_users. Si l’utilisation du processeur sur votre serveur est élevée en raison de votre charge de travail, nous vous recommandons d’augmenter les vCores du serveur pour améliorer les performances.
En savoir plus sur le serveur MySQL : OrcasMySQLAuditLog (Améliorer la fiabilité des journaux d’audit).
Améliorer le niveau de performance en optimisant le dimensionnement des tables temporaires MySQL
Notre système montre que votre serveur MySQL peut entraîner une surcharge d’E/S inutile en raison de paramètres insuffisants au niveau des tables temporaires. Cela peut générer des transactions sur disque inutiles et une réduction du niveau de performance. Nous vous recommandons d’augmenter les valeurs des paramètres « tmp_table_size » et « max_heap_table_size » pour réduire le nombre de transactions sur disque.
En savoir plus sur le serveur MySQL : OrcasMySqlTmpTables (Améliorer le niveau de performance en optimisant le dimensionnement des tables temporaires MySQL).
Améliorer la latence de connexion MySQL
Notre système montre que votre application qui se connecte au serveur MySQL gère peut-être mal les connexions. Cela peut entraîner une latence élevée des applications. Pour améliorer la latence de connexion, nous vous recommandons d’activer la redirection de connexion. Pour ce faire, vous pouvez activer la fonctionnalité de redirection de connexion du pilote PHP.
En savoir plus sur le serveur MySQL : OrcasMySQLConnectionRedirection (Améliorer la latence de connexion MySQL).
Augmenter la limite de stockage du Serveur flexible MySQL
Notre système montre que le serveur est peut-être limité, car il est proche des limites pour les valeurs du stockage provisionné. L’approche des limites de stockage peut entraîner une dégradation des performances ou le passage du serveur en mode lecture seule. Pour assurer des performances continues, nous vous recommandons d’augmenter la quantité de stockage provisionnée.
En savoir plus sur le serveur flexible Azure Database pour MySQL - OrcasMeruMySqlStorageUpsell (Augmenter la limite de stockage pour le serveur flexible MySQL).
Mettre à l’échelle le Serveur flexible MySQL vers une référence plus élevée
Notre système montre que votre serveur flexible dépasse les limites de connexion associées à votre référence SKU actuelle. Un grand nombre de demandes de connexion ayant échoué peut nuire aux performances du serveur. Pour améliorer les performances, nous vous recommandons d’augmenter le nombre de vCores ou de basculer vers une référence SKU plus élevée.
En savoir plus sur le serveur flexible Azure Database pour MySQL - OrcasMeruMysqlConnectionUpsell (Mettre à l’échelle le serveur flexible MySQL vers une référence SKU plus élevée).
Augmentez le nombre de vCores du serveur flexible MySQL.
Notre système montre que le processeur a fait l’objet d’une utilisation élevée pendant une longue période de temps sur les sept derniers jours. Une utilisation élevée du processeur peut conduire au ralentissement des performances des requêtes. Pour améliorer les performances, nous vous recommandons de passer à une taille de calcul plus grande.
En savoir plus sur le serveur flexible Azure Database pour MySQL - OrcasMeruMysqlCpuUpcell (Augmenter les vCores du serveur flexible MySQL.).
Améliorer le niveau de performance en optimisant le dimensionnement des tables temporaires MySQL.
Notre système montre que votre serveur MySQL peut entraîner une surcharge d’E/S inutile en raison de paramètres insuffisants au niveau des tables temporaires. Une surcharge d’E/S inutile peut générer des transactions sur disque inutiles et une réduction du niveau de performance. Nous vous recommandons d’augmenter les valeurs des paramètres « tmp_table_size » et « max_heap_table_size » pour réduire le nombre de transactions sur disque.
En savoir plus sur le serveur flexible Azure Database pour MySQL - OrcasMeruMysqlTmpTable (Améliorer les performances en optimisant le dimensionnement de table temporaire MySQL).
Passer votre serveur MySQL à la référence SKU Mémoire optimisée
Notre système montre qu’il y a une utilisation importante de la mémoire pour ce serveur, ce qui peut entraîner une baisse des performances des requêtes et une augmentation des IOPS. Pour améliorer les performances, passez en revue les requêtes de votre charge de travail pour identifier les possibilités de réduire la quantité de mémoire consommée. Si vous ne trouvez pas de telles opportunités, nous vous recommandons de passer une référence SKU supérieure avec davantage de mémoire ou d’augmenter la taille du stockage pour obtenir des IOPS plus élevées.
En savoir plus sur le serveur flexible Azure Database pour MySQL - OrcasMeruMysqlMemoryUpsell (Passer votre serveur MySQL vers le SKU à mémoire optimisée).
Ajouter un serveur réplica en lecture MySQL
Notre système montre que vous pouvez avoir une charge de travail de lecture intensive en cours d’exécution, ce qui entraîne une contention des ressources pour ce serveur. Ceci peut conduire au ralentissement des performances des requêtes pour le serveur. Pour améliorer les performances, nous vous recommandons d’ajouter un réplica en lecture et de décharger certaines de vos charges de travail de lecture sur le réplica.
En savoir plus sur le serveur flexible Azure Database pour MySQL - OrcasMeruMysqlReadReplicaUpsell (Ajouter un serveur de réplica en lecture MySQL).
Augmentez la valeur du paramètre work_mem pour éviter les déversements excessifs sur le disque lors des opérations de tri et de hachage.
Nos système montre que la valeur du paramètre work_mem de la configuration est trop faible pour votre serveur PostgreSQL, ce qui entraîne un déversement sur le disque et une dégradation des performances des requêtes. Pour y remédier, nous vous recommandons d’augmenter la limite du paramètre work_mem du serveur, ce qui contribue à réduire les scénarios de tri ou de hachage sur le disque et à améliorer les performances globales des requêtes.
Améliorez les performances de votre charge de travail de 30 % avec le nouveau matériel de calcul Ev5
Avec le nouveau matériel de calcul Ev5, vous pouvez augmenter les performances des charges de travail de 30 % avec une concurrence accrue et un meilleur débit. Accédez à l’option Calcul+Stockage sur le portail Microsoft Azure et basculez vers le calcul Ev5 sans coût supplémentaire. La capacité de calcul Ev5 offre les meilleures performances parmi les autres séries de machines virtuelles en termes de QPS et de latence.
Augmenter la limite de stockage pour le groupe de serveurs Hyperscale (Citus)
Notre système montre qu’un ou plusieurs nœuds du groupe de serveurs sont peut-être limités, car ils sont proches des limites pour les valeurs du stockage provisionné. Cela peut entraîner une dégradation des performances ou le placement du serveur en mode lecture seule. Pour assurer des performances continues, nous vous recommandons d’augmenter la quantité d’espace disque provisionné.
En savoir plus sur le serveur PostgreSQL : OrcasPostgreSqlCitusStorageLimitHyperscaleCitus (Augmenter la limite de stockage pour le groupe de serveurs Hyperscale [Citus]).
Augmenter le nombre de vCores du serveur PostgreSQL
Sur une période de sept jours, l’utilisation de l’UC a été au moins l’une des suivantes : supérieure à 90 % pendant 2 heures ou plus, supérieure à 50 % pendant 50 % du temps, utilisation maximale pendant 20 % du temps. Une utilisation élevée du processeur peut conduire au ralentissement des performances des requêtes. Pour améliorer le niveau de performance, nous vous recommandons de passer votre serveur à une référence SKU plus grande avec une capacité de calcul plus élevée. En savoir plus sur Serveur flexible Azure Database pour PostgreSQL : Augmenter la référence SKU du serveur pour PostgreSQL sur Azure Database.
Optimiser les paramètres log_statement pour PostgreSQL sur la base de données Azure
Notre système montre que log_statement est activé. Pour de meilleures performances, définissez-le sur NONE
En savoir plus sur Serveur flexible Azure Database pour PostgreSQL : optimiser les paramètres log_statement pour PostgreSQL sur Azure Database.
Optimiser les paramètres log_duration pour PostgreSQL sur la base de données Azure
Vous pouvez rencontrer une dégradation potentielle du niveau de performance causée par les paramètres de journalisation. Pour optimiser ces paramètres, définissez le paramètre serveur log_duration sur OFF.
En savoir plus sur En savoir plus sur Serveur flexible Azure Database pour PostgreSQL : optimiser les paramètres log_duration pour PostgreSQL sur Azure Database.
Optimiser les paramètres log_min_duration pour PostgreSQL sur la base de données Azure
Votre paramètre de serveur log_min_duration est défini sur moins de 60 000 ms (1 minute), ce qui peut entraîner une potentielle détérioration des performances. Vous pouvez optimiser les paramètres de journalisation en réglant le paramètre log_min_duration_statement sur -1.
En savoir plus sur Serveur flexible Azure Database pour PostgreSQL : optimiser les paramètres log_min_duration pour PostgreSQL sur Azure Database.
Optimiser les paramètres log_error_verbosity pour PostgreSQL sur la base de données Azure
Votre serveur a été configuré pour produire des journaux d’erreurs en mode détaillé. Cela peut être utile pour résoudre les problèmes de votre base de données, mais les performances de cette dernière peuvent aussi être altérées. Pour améliorer le niveau de performances, nous vous recommandons de remplacer le paramètre log_error_verbosity par le paramètre PAR DÉFAUT.
En savoir plus sur En savoir plus sur Serveur flexible Azure Database pour PostgreSQL : optimiser les paramètres log_error_verbosity pour PostgreSQL sur Azure Database.
Identifier si des points de contrôle se produisent trop souvent pour améliorer le niveau de performance de PostgreSQL - Serveur flexible
Votre serveur rencontre fréquemment des points de contrôle. Pour résoudre le problème, nous vous recommandons d’augmenter votre paramètre serveur max_wal_size.
En savoir plus sur Serveur flexible Azure Database pour PostgreSQL : augmenter max_wal_size.
Identifier les emplacements de réplication logique inactifs pour améliorer le niveau de performance de PostgreSQL - Serveur flexible
Votre serveur peut avoir des emplacements de réplication logique inactifs susceptibles d’entraîner une dégradation des performances et de la disponibilité du serveur. Nous recommandons de supprimer les emplacements de réplication inactifs ou de consommer les modifications à partir des emplacements afin que le numéro séquentiel dans le journal (LSN) progresse et s’approche du LSN actuel du serveur.
En savoir plus sur Serveur flexible Azure Database pour PostgreSQL : emplacements de réplication logique inutilisés/inactifs.
Identifier les transactions durables pour améliorer le niveau de performance de PostgreSQL - Serveur flexible
Certaines transactions peuvent être en cours d’exécution pendant plus de 24 heures. Consultez la section Utilisation élevée du processeur-> Transactions durables dans les guides de dépannage pour identifier et atténuer le problème.
En savoir plus sur Serveur flexible Azure Database pour PostgreSQL : transactions durables avec les Guides de dépannage.
Identifier les transactions préparées orphelines pour améliorer le niveau de performance de PostgreSQL - Serveur flexible
Il existe des transactions préparées orphelines. Restaurer/Valider la transaction préparée. Les suggestions sont partagées dans la section Bloqueurs de nettoyage automatique -> Bloqueurs de nettoyage automatique dans les guides de dépannage.
En savoir plus sur Serveur flexible Azure Database pour PostgreSQL : transactions préparées orphelines avec les Guides de dépannage.
Identifier le bouclage de transaction pour améliorer le niveau de performance de PostgreSQL - Serveur flexible
Le serveur a franchi la limite de 50 % de la limite de bouclage, ayant 1 milliard de transactions. Reportez-vous aux suggestions partagées dans la section Blocages de nettoyage automatique ->Nettoyage automatique d’urgence et bouclage des guides de dépannage.
En savoir plus sur Serveur flexible Azure Database pour PostgreSQL : bouclage de transaction avec les Guides de dépannage.
Identifier un taux de ballonnement élevé pour améliorer le niveau de performance de PostgreSQL - Serveur flexible
Le serveur a un bloat_ratio (tuples morts/ (tuples vivants + tuples morts) > 80 %). Reportez-vous aux recommandations partagées dans la section Surveillance du nettoyage automatique des guides de dépannages.
En savoir plus sur Serveur flexible Azure Database pour PostgreSQL : taux de ballonnement élevé avec les Guides de dépannage.
Augmenter la limite de stockage pour le groupe de serveurs Hyperscale (Citus)
Notre système montre qu’un ou plusieurs nœuds du groupe de serveurs sont peut-être limités, car ils sont proches des limites pour les valeurs du stockage provisionné. Cela peut entraîner une dégradation des performances ou le placement du serveur en mode lecture seule. Pour assurer des performances continues, nous vous recommandons d’augmenter la quantité d’espace disque provisionné.
En savoir plus sur le groupe de serveurs Hyperscale (Citus) : MarlinStorageLimitRecommendation (Augmenter la limite de stockage pour le groupe de serveurs Hyperscale [Citus]).
Migrer votre base de données de SSPG vers FSPG
Envisagez notre nouvelle offre, le serveur flexible Azure Database pour PostgreSQL, qui intègre des capacités plus riches, par exemple une haute disponibilité (HA) résiliente aux zones, des performances prévisibles, un contrôle maximal, une fenêtre de maintenance personnalisée, des contrôles d’optimisation des coûts ainsi qu’une expérience simplifiée pour les développeurs.
En savoir plus sur le serveur flexible Azure Database pour PostgreSQL : OrcasPostgreSqlMeruMigration (Migrer votre base de données de SSPG vers FSPG).
Améliorer les performances du cache et de l’application quand la bande passante réseau est élevée
Les instances de cache fonctionnent mieux quand elles ne s’exécutent pas sous une bande passante réseau élevée qui peut entraîner une non réponse, une perte de données ou une indisponibilité. Appliquez les bonnes pratiques pour réduire la bande passante réseau ou effectuez une mise à l’échelle vers une autre taille ou une autre référence SKU offrant une capacité supérieure.
En savoir plus sur le serveur Cache Redis : RedisCacheNetworkBandwidth (Améliorer les performances du cache et de l’application quand la bande passante réseau est élevée).
Améliorer les performances du cache et de l’application quand de nombreux clients sont connectés
Les instances de cache fonctionnent mieux quand elles ne s’exécutent pas sous une bande passante réseau élevée qui peut entraîner une non réponse, une perte de données ou une indisponibilité. Appliquez les bonnes pratiques pour réduire la charge de serveur ou effectuez une mise à l’échelle vers une autre taille ou une autre référence SKU offrant une capacité supérieure.
En savoir plus sur le serveur Cache Redis : RedisCacheConnectedClients (Améliorer les performances du cache et de l’application quand de nombreux clients sont connectés).
Améliorer les performances du cache et de l’application quand de nombreux clients sont connectés
Les instances de cache fonctionnent mieux quand elles ne s’exécutent pas sous une bande passante réseau élevée qui peut entraîner une non réponse, une perte de données ou une indisponibilité. Appliquez les bonnes pratiques pour réduire la charge de serveur ou effectuez une mise à l’échelle vers une autre taille ou une autre référence SKU offrant une capacité supérieure.
En savoir plus sur le serveur Cache Redis : RedisCacheConnectedClientsHigh (Améliorer les performances du cache et de l’application quand de nombreux clients sont connectés).
Améliorer les performances du cache et de l’application quand la charge du serveur est élevée
Les instances de cache fonctionnent mieux quand elles ne s’exécutent pas sous une bande passante réseau élevée qui peut entraîner une non réponse, une perte de données ou une indisponibilité. Appliquez les bonnes pratiques pour réduire la charge de serveur ou effectuez une mise à l’échelle vers une autre taille ou une autre référence SKU offrant une capacité supérieure.
En savoir plus sur le serveur Cache Redis : RedisCacheServerLoad (Améliorer les performances du cache et de l’application quand la charge du serveur est élevée).
Améliorer les performances du cache et de l’application quand la charge du serveur est élevée
Les instances de cache fonctionnent mieux quand elles ne s’exécutent pas sous une bande passante réseau élevée qui peut entraîner une non réponse, une perte de données ou une indisponibilité. Appliquez les bonnes pratiques pour réduire la charge de serveur ou effectuez une mise à l’échelle vers une autre taille ou une autre référence SKU offrant une capacité supérieure.
En savoir plus sur le serveur Cache Redis : RedisCacheServerLoadHigh (Améliorer les performances du cache et de l’application quand la charge du serveur est élevée).
Améliorer les performances du cache et de l’application quand la pression sur la mémoire est élevée
Les instances de cache fonctionnent mieux quand elles ne s’exécutent pas sous une bande passante réseau élevée qui peut entraîner une non réponse, une perte de données ou une indisponibilité. Appliquez les bonnes pratiques pour réduire la mémoire utilisée ou effectuez une mise à l’échelle vers une autre taille ou une autre référence SKU offrant une capacité supérieure.
En savoir plus sur le serveur Cache Redis : RedisCacheUsedMemory (Améliorer les performances du cache et de l’application quand la pression sur la mémoire est élevée).
Améliorez les performances du Cache et de l’application lorsque l’utilisation de la mémoire RSS est élevée.
Les instances de cache fonctionnent mieux quand elles ne s’exécutent pas sous une bande passante réseau élevée qui peut entraîner une non réponse, une perte de données ou une indisponibilité. Appliquez les bonnes pratiques pour réduire la mémoire utilisée ou effectuez une mise à l’échelle vers une autre taille ou une autre référence SKU offrant une capacité supérieure.
En savoir plus sur le serveur Cache Redis : RedisCacheUsedMemoryRSS (Améliorer les performances du cache et de l’application quand l’utilisation rss de la mémoire est élevée).
Les instances de cache fonctionnent mieux quand les ordinateurs hôtes sur lesquels l’application cliente s’exécute sont capables de suivre le rythme des réponses du cache
Les instances de cache fonctionnent mieux quand les ordinateurs hôtes sur lesquels l’application cliente s’exécute sont capables de suivre le rythme des réponses du cache. Si l’ordinateur hôte client s’approche des limites de mémoire, de processeur ou de bande passante réseau, les réponses du cache n’atteignent pas votre application suffisamment rapidement, ce qui peut entraîner une latence plus élevée.
DevOps
Mettre à jour l’API AMS vers la version la plus récente
Nous avons identifié les appels à une version d’API Azure Media Services (AMS) qui n’est pas recommandée. Nous vous recommandons de passer à la dernière version de l’API AMS pour garantir un accès ininterrompu à AMS, aux fonctionnalités les plus récentes et aux améliorations des performances.
En savoir plus sur Analyse : UpdateToLatestAMSApiVersion (Mettre à jour vers la dernière version de l’API AMS).
Effectuer la mise à niveau vers la dernière version du SDK Workloads
Effectuez une mise à niveau vers la dernière version du SDK Workloads pour obtenir les meilleurs résultats en termes de qualité du modèle, de performances et de disponibilité du service.
En savoir plus sur Analyse : UpgradeToLatestAMSSdkVersion (Mettre à niveau vers la dernière version du kit de développement logiciel (SDK) Workloads).
Intégration
Mettre à jour votre ressource de Gestion des API vers une autre version
Votre abonnement s’exécute sur des versions dont la dépréciation a été planifiée. Le 30 septembre 2023, toutes les versions d’API du service de gestion des API Azure antérieures au 01/08/2021 sont mises hors service et les appels d’API échouent. Effectuez une mise à niveau vers une version plus récente pour éviter toute interruption de vos services.
En savoir plus sur Gestion des API : apimgmtdeprecation (Mettre à niveau votre ressource de gestion des API vers une autre version).
Applications mobiles
Utiliser la version recommandée du kit SDK Conversation
Le kit SDK Conversation Azure Communication Services peut être utilisé pour ajouter la fonctionnalité de conversation complète et en temps réel à vos applications. Effectuez la mise à jour vers la version recommandée du kit SDK Chat pour bénéficier des derniers correctifs et fonctionnalités.
En savoir plus sur le service de communication : UpgradeChatSdk (Utiliser la version recommandée du SDK Conversation).
Utiliser la version recommandée du kit SDK Resource Manager
Vous pouvez utiliser le kit de développement logiciel (SDK) Resource Manager pour créer et gérer les ressources Azure Communication Services. Effectuez la mise à jour vers la version recommandée du kit SDK Resource Manager pour bénéficier des derniers correctifs et fonctionnalités.
En savoir plus sur le service de communication : UpgradeResourceManagerSdk (Utiliser la version recommandée du SDK Resource Manager).
Utiliser la version recommandée du kit SDK Identity
Vous pouvez utiliser le kit SDK Identity d’Azure Communication Services pour gérer les identités, les utilisateurs et les jetons d’accès. Effectuez la mise à jour vers la version recommandée du kit SDK Identity pour bénéficier des derniers correctifs et fonctionnalités.
En savoir plus sur le service de communication : UpgradeIdentitySdk (Utiliser la version recommandée du SDK Identity).
Utiliser la version recommandée du kit SDK SMS
Vous pouvez utiliser le kit SDK SMS d’Azure Communication Services pour envoyer et recevoir des messages SMS. Effectuez la mise à jour vers la version recommandée du kit SDK SMS pour bénéficier des derniers correctifs et fonctionnalités.
En savoir plus sur le service de communication : UpgradeSmsSdk (Utiliser la version recommandée du SDK SMS).
Utiliser la version recommandée du kit SDK Phone Numbers
Vous pouvez utiliser le kit SDK Phone Numbers d’Azure Communication Services pour acquérir et gérer des numéros de téléphone. Effectuez la mise à jour vers la version recommandée du kit SDK Phone Numbers pour bénéficier des derniers correctifs et fonctionnalités.
En savoir plus sur le service de communication : UpgradePhoneNumbersSdk (Utiliser la version recommandée du SDK Phone Numbers).
Utiliser la version recommandée du kit SDK Calling
Vous pouvez utiliser le kit SDK Calling d’Azure Communication Services pour activer la voix, la vidéo, le partage d’écran et d’autres communications en temps réel. Effectuez la mise à jour vers la version recommandée du kit SDK Calling pour bénéficier des derniers correctifs et fonctionnalités.
En savoir plus sur le service de communication : UpgradeCallingSdk (Utiliser la version recommandée du SDK Calling).
Utiliser la version recommandée du kit SDK Call Automation
Vous pouvez utiliser le kit SDK Call Automation d’Azure Communication Services pour créer et gérer des appels, lire des données audio et configurer des enregistrements. Effectuez la mise à jour vers la version recommandée du kit SDK Call Automation pour bénéficier des derniers correctifs et fonctionnalités.
En savoir plus sur le service de communication : UpgradeServerCallingSdk (Utiliser la version recommandée du SDK Call Automation).
Utiliser la version recommandée du kit SDK Network Traversal
Vous pouvez utiliser le kit SDK Network Traversal d’Azure Communication Services pour accéder aux serveurs TURN dans le cadre du transport de données de bas niveau. Effectuez la mise à jour vers la version recommandée du kit SDK Network Traversal pour bénéficier des derniers correctifs et fonctionnalités.
En savoir plus sur le service de communication : UpgradeTurnSdk (Utiliser la version recommandée du SDK Network Traversal).
Utiliser la version recommandée du Kit de développement logiciel (SDK) Rooms
Le Kit de développement logiciel (SDK) Rooms d’Azure Communication Services permet de contrôler qui peut rejoindre un appel, quand les utilisateurs peuvent se rencontrer et comment ils peuvent collaborer. Effectuez la mise à jour vers la version recommandée du Kit de développement logiciel (SDK) Rooms pour bénéficier des derniers correctifs et des dernières fonctionnalités. Une version non recommandée a été détectée au cours des dernières 48 à 60 heures.
En savoir plus sur Service de communication : UpgradeRoomsSdk (Utiliser la version recommandée du kit de développement logiciel (SDK) Rooms).
Mise en réseau
Recommandation de mise à niveau de la version SDK
La dernière version de la Bibliothèque ou du Kit de développement logiciel (SDK) Azure Front Door Standard et Premium Client contient des correctifs pour les problèmes signalés par les clients et identifiés de manière proactive par notre processus d’assurance qualité. La dernière version offre également une optimisation de la fiabilité et des performances en plus de nouvelles fonctionnalités qui peuvent améliorer votre expérience globale d’utilisation Azure Front Door Standard et Premium
En savoir plus sur le profil Front Door - UpgradeCDNToLatestSDKLanguage (mise à niveau de la recommandation de version du SDK).
Recommandation de mise à niveau de la version SDK
La dernière version du SDK Azure Traffic Collector contient des correctifs aux problèmes identifiés de manière proactive par le biais de notre processus d’assurance qualité, prend en charge le dernier modèle de ressource et offre une optimisation de la fiabilité et des performances qui peut améliorer votre expérience globale avec ATC.
En savoir plus sur Azure Traffic Collector : UpgradeATCToLatestSDKLanguage (Recommandation de mise à niveau du kit de développement logiciel (SDK)).
Mettre à niveau la bande passante de votre circuit ExpressRoute pour répondre à vos besoins en bande passante
Vous avez récemment utilisé plus de 90 % de la bande passante fournie de votre circuit. Si vous dépassez la bande passante allouée, vous constatez une augmentation des paquets ignorés envoyés sur ExpressRoute. Mettez à niveau la bande passante de votre circuit pour maintenir les performances si vos besoins en bande passante restent aussi élevés.
En savoir plus sur le circuit ExpressRoute : UpgradeERCircuitBandwidth (Mettre à niveau la bande passante de votre circuit ExpressRoute pour répondre à vos besoins en bande passante).
Bénéficier d’une latence plus prévisible et cohérente avec une connexion privée à Azure
Améliorez les performances, la confidentialité et la fiabilité de vos applications vitales pour l’entreprise en étendant vos réseaux locaux à Azure avec Azure ExpressRoute. Établissez des connexions ExpressRoute privées directement à partir de votre réseau étendu (WAN), via une installation Cloud Exchange ou des connexions POP et IPVPN.
En savoir plus sur l’abonnement - AzureExpressRoute (Découvrir une latence plus prévisible et cohérente avec une connexion privée à Azure).
Mettre à niveau l’API des charges de travail vers la dernière version (API du Centre Azure pour les solutions SAP)
Nous avons identifié les appels vers une version obsolète de l’API des Charges de travail pour des ressources de ce groupe de ressources. Nous vous recommandons de passer à la dernière version de l’API des Charges de travail pour garantir un accès ininterrompu aux fonctionnalités les plus récentes et aux améliorations des performances dans le Centre Azure pour les solutions SAP. Si plusieurs instances virtuelles pour les solutions SAP (VIS) sont indiquées dans la recommandation, assurez-vous de mettre à jour la version de l’API pour toutes les ressources VIS.
En savoir plus sur Abonnement : UpdateToLatestWaasApiVersionAtSub (Mettre à niveau l’API Workloads vers la dernière version (API du centre Azure pour les solutions SAP)).
Mettre à niveau le Kit de développement logiciel (SDK) des charges de travail vers la dernière version (Kit de développement logiciel (SDK) du Centre Azure pour les solutions SAP)
Nous avons identifié les appels vers une version obsolète du Kit de développement logiciel (SDK) des Charges de travail à partir de ressources de ce groupe de ressources. Effectuez une mise à niveau vers la dernière version du Kit de développement logiciel (SDK) des Charges de travail pour obtenir les dernières fonctionnalités et les meilleurs résultats en ce qui concerne la qualité du modèle, les performances et la disponibilité du service pour le Centre Azure pour les solutions SAP. Si plusieurs instances virtuelles pour les solutions SAP (VIS) sont indiquées dans la recommandation, assurez-vous de mettre à jour la version du kit de développement logiciel (SDK) pour toutes les ressources VIS.
Configurer la durée de vie du DNS sur 60 secondes
La durée de vie (TTL) affecte l’âge de la réponse qu’obtient un client quand il envoie une demande à Azure Traffic Manager. Une valeur TTL faible signifie que les clients sont routés plus rapidement vers un point de terminaison fonctionnel en cas de basculement. Configurez votre TTL sur 60 secondes pour router le trafic vers un point de terminaison sain le plus rapidement possible.
En savoir plus sur le profil Traffic Manager : ProfileTTL (Configurer la durée de vie du DNS sur 60 secondes).
Configurer la durée de vie du DNS sur 20 secondes
La durée de vie (TTL) affecte l’âge de la réponse qu’obtient un client quand il envoie une demande à Azure Traffic Manager. Une valeur TTL faible signifie que les clients sont routés plus rapidement vers un point de terminaison fonctionnel en cas de basculement. Configurez votre TTL sur 20 secondes pour router le trafic vers un point de terminaison sain le plus rapidement possible.
En savoir plus sur le profil Traffic Manager : FastFailOverTTL (Configurer la durée de vie du DNS sur 20 secondes).
Configurer la durée de vie du DNS sur 60 secondes
La durée de vie (TTL) affecte l’âge de la réponse qu’obtient un client quand il envoie une demande à Azure Traffic Manager. Une valeur TTL faible signifie que les clients sont routés plus rapidement vers un point de terminaison fonctionnel en cas de basculement. Configurez votre TTL sur 60 secondes pour router le trafic vers un point de terminaison sain le plus rapidement possible.
En savoir plus sur le profil Traffic Manager : ProfileTTL (Configurer la durée de vie du DNS sur 60 secondes).
Envisagez d’agrandir la taille de votre référence SKU de passerelle de réseau virtuel pour faire face à une sollicitation forte et constante du processeur
En cas de charge élevée du trafic, la passerelle VPN peut abandonner des paquets en raison d’une forte sollicitation du processeur.
Envisager d’agrandir la taille de la référence SKU de passerelle de réseau virtuel pour faire face à une forte utilisation P2S
Chaque référence SKU de passerelle ne peut prendre en charge qu’un nombre spécifié de connexions P2S simultanées. Le nombre de connexions est proche de la limite de votre passerelle, donc les tentatives de connexion suivantes peuvent échouer.
Vérifiez que vous disposez de suffisamment d’instances dans votre passerelle applicative pour prendre en charge le trafic
Votre passerelle applicative ayant été récemment utilisée de façon intensive et avec une charge importante, vous risquez de subir une perte de trafic ou une latence accrue. Il est important de mettre à l’échelle votre Application Gateway en conséquence et d’ajouter une mémoire tampon afin d’anticiper les pics de trafic et de réduire l’effet que cela peut avoir dans votre QoS. La référence SKU Application Gateway v1 (standard/WAF) prend en charge la mise à l’échelle manuelle, tandis que la référence SKU v2 (Standard_v2/WAF_v2) prend en charge la mise à l’échelle manuelle et automatique. Avec la mise à l’échelle manuelle, augmentez le nombre d’instances. Si la mise à l’échelle automatique est activée, assurez-vous que le nombre maximal d’instances est défini avec une valeur supérieure afin que la passerelle applicative puisse effectuer un scale-out quand le trafic augmente.
En savoir plus sur la passerelle applicative : HotAppGateway (Vérifier que vous disposez de suffisamment d’instances dans votre passerelle applicative pour prendre en charge le trafic).
Utiliser des sondes d’intégrité HEAD
Les sondes d’intégrité peuvent utiliser la méthode HTTP GET ou HEAD. Il est recommandé d’utiliser la méthode HEAD pour les sondes d’intégrité, car elle réduit la charge de trafic sur vos origines.
En savoir plus sur Front Door – Utiliser des sondes d’intégrité HEAD.
SAP pour Azure
Pour éviter un blocage logiciel dans le pilote Mellanox, réduire la valeur can_queue dans le système d’exploitation de la machine virtuelle d’application dans les charges de travail SAP
Pour éviter un verrouillage logiciel sporadique dans le pilote Mellanox, réduisez la valeur can_queue dans le système d’exploitation. La valeur ne peut pas être définie directement. Ajouter les options de ligne de démarrage du noyau suivantes pour obtenir le même effet : « hv_storvsc.storvsc_ringbuffer_size=131072 hv_storvsc.storvsc_vcpus_per_sub_channel=1024 »
Pour éviter un blocage logiciel dans le pilote Mellanox, réduire la valeur can_queue dans le système d’exploitation de la machine virtuelle ASCS dans les charges de travail SAP
Pour éviter un verrouillage logiciel sporadique dans le pilote Mellanox, réduisez la valeur can_queue dans le système d’exploitation. La valeur ne peut pas être définie directement. Ajouter les options de ligne de démarrage du noyau suivantes pour obtenir le même effet : « hv_storvsc.storvsc_ringbuffer_size=131072 hv_storvsc.storvsc_vcpus_per_sub_channel=1024 »
Pour éviter un blocage logiciel dans le pilote Mellanox, réduire la valeur can_queue dans le système d’exploitation de la machine virtuelle de base de données dans les charges de travail SAP
Pour éviter un verrouillage logiciel sporadique dans le pilote Mellanox, réduisez la valeur can_queue dans le système d’exploitation. La valeur ne peut pas être définie directement. Ajouter les options de ligne de démarrage du noyau suivantes pour obtenir le même effet : « hv_storvsc.storvsc_ringbuffer_size=131072 hv_storvsc.storvsc_vcpus_per_sub_channel=1024 »
Pour améliorer les performances du système de fichiers dans la base de données HANA avec ANF optimisez le paramètre de système d’exploitation tcp_wmem
Le paramètre net.ipv4.tcp_wmem spécifie les tailles minimales, par défaut et maximales des mémoires tampons d’envoi utilisées pour un socket TCP. Définissez le paramètre conformément à la note SAP 302436 pour certifier la base de données HANA afin qu’elle s’exécute avec ANF et améliore les performances du système de fichiers. La valeur maximale ne doit pas dépasser le paramètre net.core.wmem_max.
Pour améliorer les performances du système de fichiers dans la base de données HANA avec ANF optimisez le paramètre de système d’exploitation tcp_rmem
Le paramètre net.ipv4.tcp_rmem spécifie les tailles minimales, par défaut et maximales des mémoires tampons de réception utilisées pour un socket TCP. Définissez le paramètre conformément à la note SAP 3024346 pour certifier la base de données HANA afin qu’elle s’exécute avec ANF et améliore les performances du système de fichiers. La valeur maximale ne doit pas dépasser le paramètre net.core.rmem_max.
Pour améliorer les performances du système de fichiers dans la base de données HANA avec ANF optimisez le paramètre de système d’exploitation wmem_max
Dans la base de données HANA avec type de stockage ANF, la mémoire tampon de socket d’écriture maximale, définie par le paramètre net.core.wmem_max, doit avoir une valeur suffisamment grande pour gérer les paquets réseau sortants. La configuration net.core.wmem_max certifie que la base de données HANA s’exécute avec ANF et améliore les performances du système de fichiers. Consultez la note SAP 3024346.
Pour améliorer les performances du système de fichiers dans la base de données HANA avec ANF optimisez le paramètre de système d’exploitation tcp_rmem
Le paramètre net.ipv4.tcp_rmem spécifie les tailles minimales, par défaut et maximales des mémoires tampons de réception utilisées pour un socket TCP. Définissez le paramètre conformément à la note SAP 3024346 pour certifier la base de données HANA afin qu’elle s’exécute avec ANF et améliore les performances du système de fichiers. La valeur maximale ne doit pas dépasser le paramètre net.core.rmem_max.
Pour améliorer les performances du système de fichiers dans la base de données HANA avec ANF optimisez le paramètre de système d’exploitation rmem_max
Dans la base de données HANA avec type de stockage ANF, la mémoire tampon de socket de lecture maximale, définie par le paramètre net.core.rmem_max, doit avoir une valeur suffisamment grande pour gérer les paquets réseau entrants. La configuration net.core.rmem_max certifie que la base de données HANA s’exécute avec ANF et améliore les performances du système de fichiers. Consultez la note SAP 3024346.
Pour améliorer les performances du système de fichiers dans la base de données HANA avec ANF, définissez la taille de la file d’attente du backlog du récepteur sur 300000
Le paramètre net.core.netdev_max_backlog spécifie la taille de la file d’attente du backlog du récepteur, utilisée si une interface réseau reçoit des paquets plus rapidement que le noyau peut traiter. Définissez le paramètre conformément à la note SAP : 3024346. La configuration net.core.netdev_max_backlog certifie que la base de données HANA s’exécute avec ANF et améliore les performances du système de fichiers.
Pour améliorer les performances du système de fichiers dans la base de données HANA avec ANF, activez le paramètre de système d’exploitation de mise à l’échelle de fenêtre TCP
Activez le paramètre de mise à l’échelle de fenêtre TCP selon la note SAP : 302436. La configuration de mise à l'échelle des fenêtres TCP atteste l’exécution de la base de données HANA avec ANF et améliore les performances du système de fichiers pour la base de données HANA avec ANF dans les charges de travail SAP.
Pour améliorer les performances système dans la base de données HANA avec ANF, désactivez le protocole IPv6 dans le système d’exploitation
Désactiver IPv6 conformément aux recommandations pour SAP sur Azure pour HANA DB avec ANF afin d’améliorer les performances du système de fichiers.
Pour améliorer les performances du système de fichiers dans la base de données HANA avec ANF, désactivez le paramètre pour le démarrage lent après l’inactivité
Le paramètre net.ipv4.tcp_slow_start_after_idle désactive la nécessité d’effectuer un scale-up incrémentiel de la taille de fenêtre TCP pour les connexions TCP qui étaient inactives pendant un certain temps. En définissant ce paramètre sur zéro conformément à la note SAP : 302436, la vitesse maximale est utilisée à partir du début pour les connexions TCP précédemment inactives.
Pour améliorer les performances du système de fichiers dans la base de données HANA avec ANF optimisez le paramètre de système d’exploitation tcp_max_syn_backlog
Pour empêcher le noyau d’utiliser des cookies SYN dans une situation où de nombreuses demandes de connexion sont envoyées dans un court délai et pour empêcher un avertissement concernant une attaque potentielle par saturation SYN dans le journal système, la taille du backlog SYN doit être définie sur une valeur raisonnablement élevée. Consultez la note SAP 2382421.
Pour améliorer les performances système dans la base de données HANA avec ANF, activez le paramètre de système d’exploitation tcp_sack
Activez le paramètre tcp_sack conformément à la note SAP : 302436. La configuration tcp_sack atteste l’exécution de la base de données HANA avec ANF et améliore les performances du système de fichiers pour la base de données HANA avec ANF dans les charges de travail SAP.
Dans un scénario de haute disponibilité pour la base de données HANA avec ANF, désactivez le paramètre de système d’exploitation tcp_timestamps
Désactivez le paramètre tcp_timestamps conformément à la note SAP : 302436. La configuration tcp_timestamps atteste l’exécution de la base de données HANA avec ANF et améliore les performances du système de fichiers dans les scénarios de haute disponibilité pour la base de données HANA avec ANF dans les charges de travail SAP
Pour améliorer les performances du système de fichiers dans la base de données HANA avec ANF, activez le paramètre de système d’exploitation tcp_timestamps
Activez le paramètre tcp_timestamps conformément à la note SAP : 302436. La configuration tcp_timestamps atteste l’exécution de la base de données HANA avec ANF et améliore les performances du système de fichiers pour la base de données HANA avec ANF dans les charges de travail SAP.
Pour améliorer les performances du système de fichiers dans la base de données HANA avec ANF, activez le paramétrage automatique de la taille de la mémoire tampon de réception TCP
Le paramètre net.ipv4.tcp_moderate_rcvbuf permet à TCP d’effectuer le réglage automatique de la mémoire tampon, de dimensionner automatiquement la mémoire tampon (pas plus que tcp_rmem pour correspondre à la taille requise par le chemin d’accès pour le débit total. Activez ce paramètre conformément à la note SAP : 302436 pour améliorer les performances du système de fichiers.
Pour améliorer les performances du système de fichiers dans la base de données HANA avec ANF, optimisez les net.ipv4.ip_local_port_range
Étant donné que HANA utilise un nombre considérable de connexions pour la communication interne, il est judicieux d’avoir autant de ports clients disponibles que possible à cet effet. Définissez le paramètre de système d’exploitation, net.ipv4.ip_local_port_range en fonction de la note SAP 2382421 pour garantir une communication interne optimale HANA.
Pour améliorer les performances système dans la base de données HANA avec ANF, optimisez sunrpc.tcp_slot_table_entries
Définissez le paramètre sunrpc.tcp_slot_table_entries sur 128 conformément à la recommandation pour améliorer les performances du système de fichiers dans la base de données HANA avec ANF dans les charges de travail SAP.
Tous les disques de la machine virtuelle LVM pour /hana/volume de données doivent être de même type pour garantir des performances élevées dans la base de données HANA
Si plusieurs types de disque sont sélectionnés dans le volume /hana/data, les performances de la base de données HANA dans les charges de travail SAP peuvent être restreintes. Vérifiez que tous les disques de voue de données HANA sont du même type et sont configurés conformément aux recommandations pour SAP sur Azure.
La taille de bande pour /hana/data doit être de 256 Ko pour améliorer les performances de la base de données HANA dans les charges de travail SAP
Si vous utilisez LVM ou mdadm pour créer des jeux de bandes sur plusieurs disques Azure Premium, vous devez définir des tailles de bande. En fonction de l’expérience avec les versions récentes de Linux, Azure recommande d’utiliser la taille de bande de 256 Ko pour le système de fichiers /hana/data pour améliorer les performances de la base de données HANA.
Pour améliorer les performances du système de fichiers dans la base de données HANA avec ANF, optimisez le paramètre vm.swappiness
Définissez le paramètre de SE vm.swappiness sur 10 conformément à la recommandation pour améliorer les performances du système de fichiers dans la base de données HANA avec ANF dans les charges de travail SAP.
En savoir plus sur l’instance de base de données : VmSwappiness (pour améliorer les performances du système de fichiers dans la base de données HANA avec ANF, optimisez le paramètre vm.swappiness).
Pour améliorer les performances système dans la base de données HANA avec ANF, désactivez net.ipv4.conf.all.rp_filter
Désactiver le paramètre de système d’exploitation Linux de filtre de chemin inverse, net.ipv4.conf.all.rp_filter selon les recommandations relatives au système de fichiers amélioré dans la base de données HANA avec ANF dans les charges de travail SAP.
Si vous utilisez Ultradisk, les IOPS pour le volume /hana/data doivent être >= 7000 pour de meilleures performances de base de données HANA
Les IOPS d’au moins 7 000 en volume /hana/data sont recommandées pour les charges de travail SAP lors de l’utilisation d’Ultradisk. Sélectionnez le type de disque pour le volume /hana/data en fonction de cette exigence pour garantir des performances élevées de la base de données.
En savoir plus sur Instance de base de données : HanaDataIOPS (si vous utilisez Ultradisk, l’IOPS pour /hana/data volume doit être >=7000 pour de meilleures performances de base de données HANA).
Pour améliorer les performances du système de fichiers dans la base de données HANA avec ANF, modifiez le paramètre tcp_max_slot_table_entries
Définissez le paramètre de système d’exploitation tcp_max_slot_table_entries sur 128 conformément à la note SAP : 302436 pour améliorer le transfert de fichiers dans la base de données HANA avec ANF dans les charges de travail SAP.
Vérifiez que les performances en écriture du volume /hana/data sont >= 400 Mo/s pour de meilleures performances dans la base de données HANA
L’activité en lecture d’au moins 400 Mo/s pour /hana/data pour une taille d’E/S de 16 Mo et 64 Mo est recommandée pour les charges de travail SAP sur Azure. Sélectionnez le type de disque pour le volume /hana/data conformément à cette exigence pour garantir des performances élevées de la base de données et répondre aux exigences minimales de stockage pour SAP HANA.
Les performances en lecture/écriture du volume /hana/log devraient être >= 250 Mo/s pour de meilleures performances dans la base de données HANA
L’activité en lecture/écriture d’au moins 250 Mo/s pour /hana/log pour une taille d’E/S de 1 Mo est recommandée pour les charges de travail SAP sur Azure. Sélectionnez le type de disque pour le volume /hana/log conformément à cette exigence pour garantir des performances élevées de la base de données et répondre aux exigences minimales de stockage pour SAP HANA.
Si vous utilisez Ultradisk, les IOPS pour le volume /hana/log doivent être >=2000 pour de meilleures performances de base de données HANA
Les IOPS d’au moins 2000 pour le volume /hana/log sont recommandées pour les charges de travail SAP lors de l’utilisation d’Ultradisk. Sélectionnez le type de disque pour le volume /hana/log en fonction de cette exigence pour garantir des performances élevées de la base de données.
En savoir plus sur Instance de base de données : HanaLogIOPS (si vous utilisez Ultradisk, l’IOPS pour /hana/log volume doit être >=2000 pour de meilleures performances de base de données HANA).
Tous les disques de la machine virtuelle LVM pour le volume /hana/log doivent être de même type pour garantir des performances élevées dans la base de données HANA
Si plusieurs types de disque sont sélectionnés dans le volume /hana/log, les performances de la base de données HANA dans les charges de travail SAP peuvent être restreintes. Vérifiez que tous les disques de voue de données HANA sont du même type et sont configurés conformément aux recommandations pour SAP sur Azure.
Activer l’accélérateur d’écriture sur le volume /hana/log avec disque Premium pour améliorer la latence d’écriture dans la base de données HANA
L’Accélérateur d’écriture Azure est une fonctionnalité pour les machines virtuelles Azure de la série M. Il améliore la latence des E/S des écritures sur le stockage Premium Azure. Pour SAP HANA, l’Accélérateur des écritures doit être utilisé exclusivement sur le volume hana/log.
La taille de bande pour /hana/log doit être de 64 Ko pour améliorer les performances de la base de données HANA dans les charges de travail SAP
Si vous utilisez LVM ou mdadm pour créer des jeux de bandes sur plusieurs disques Azure Premium, vous devez définir des tailles de bande. Pour obtenir suffisamment de débit avec des tailles d’E/S plus grandes, Azure recommande d’utiliser la taille de bande de 64 Ko pour /hana/log filesystem pour améliorer les performances de la base de données HANA.
Sécurité
Mettre à jour la version de l’API d’attestation
Nous avons identifié des appels d’API provenant d’une version obsolète de l’API d’attestation pour les ressources de cet abonnement. Nous vous recommandons de passer à la dernière version de l’API d’attestation. Vous devez mettre à jour votre code existant pour utiliser la dernière version de l’API. L’utilisation de la dernière version de l’API garantit que vous recevez les dernières fonctionnalités et améliorations des performances.
En savoir plus sur le fournisseur d’attestation : UpgradeAttestationAPI (Mettre à jour la version de l’API d’attestation).
Mettre à jour la version du SDK Key Vault
Les nouvelles bibliothèques de client Key Vault sont divisées en différents SDK (clés, secrets et certificats), qui sont intégrés à la bibliothèque d’identité Azure recommandée pour assurer une authentification sans interruption à Key Vault pour l’ensemble des langages et environnements. Elles contiennent également plusieurs correctifs pour les problèmes signalés par les clients et identifiés de manière proactive par notre processus d’assurance qualité. Si Key Vault est intégré à Stockage Azure, à Disque ou à d’autres services Azure qui peuvent utiliser l’ancien kit SDK Key Vault et que toutes vos applications personnalisées actuelles utilisent le kit SDK .NET 4.0 ou ultérieur, ignorez la recommandation.
En savoir plus sur le coffre de clés : UpgradeKeyVaultSDK (Mettre à jour la version du SDK Key Vault).
Mettre à jour la version du SDK Key Vault
Les nouvelles bibliothèques de client Key Vault sont divisées en différents SDK (clés, secrets et certificats), qui sont intégrés à la bibliothèque d’identité Azure recommandée pour assurer une authentification sans interruption à Key Vault pour l’ensemble des langages et environnements. Elles contiennent également plusieurs correctifs pour les problèmes signalés par les clients et identifiés de manière proactive par notre processus d’assurance qualité.
Important
Sachez que vous ne pouvez corriger les recommandations que pour les applications personnalisées auxquelles vous avez accès. Des recommandations peuvent être affichées en raison de l’intégration à d’autres services Azure, comme Stockage ou Chiffrement de disque, qui sont en cours de mise à jour vers la nouvelle version de notre Kit de développement logiciel (SDK). Si vous utilisez .NET 4.0 dans toutes vos applications, ignorez la recommandation.
En savoir plus sur le service HSM managé : UpgradeKeyVaultMHSMSDK (Mettre à jour la version du SDK Key Vault).
Stockage
Utiliser « Put Blob » pour les objets blob de moins de 256 Mo
Lors de l’écriture d’un objet blob de blocs d’une taille égale ou inférieure à 256 Mo (64 Mo pour les demandes utilisant des versions de REST d’avant le 31-05-2016), vous pouvez le charger entièrement avec une seule opération d’écriture en utilisant « Put Blob ». D’après vos métriques agrégées, nous pensons que les opérations d’écriture de votre compte de stockage peuvent être optimisées.
En savoir plus sur le compte de stockage : StorageCallPutBlob (Utiliser « Put Blob » pour les blobs de moins de 256 Mo).
Augmenter la taille provisionnée du partage de fichiers Premium pour éviter la limitation de requêtes
Vos demandes de partage de fichiers Premium sont limitées à mesure que les limites des opérations d’E/S par seconde (IOPS) ou de débit pour le partage de fichiers sont atteintes. Pour éviter la limitation de vos demandes, augmentez la taille du partage de fichiers Premium.
En savoir plus sur Compte de stockage : AzureStorageAdvisorAvoidThrottlingPremiumFiles (Augmenter la taille provisionnée du partage de fichiers Premium pour éviter la limitation des requêtes).
Créer des statistiques sur les colonnes de table
Nous avons détecté que vous n’avez pas de statistiques sur les tables, ce qui peut avoir un impact sur les performances des requêtes. L’optimiseur de requête utilise des statiques pour estimer la cardinalité ou le nombre de lignes dans le résultat de la requête, ce qui permet à l’optimiseur de requête de créer un plan de requête de haute qualité.
En savoir plus sur l’entrepôt de données SQL : CreateTableStatisticsSqlDW (Créer des statistiques sur les colonnes de table).
Supprimer l’asymétrie des données pour augmenter les performances des requêtes
Nous avons détecté une asymétrie des données de distribution supérieure à 15 %. Cela peut entraîner de coûteux goulots d’étranglement au niveau des performances.
En savoir plus sur l’entrepôt de données SQL : DataSkewSqlDW (Supprimer l’asymétrie des données pour augmenter les performances des requêtes).
Mettre à jour les statistiques sur les colonnes de table
Nous avons détecté que vous n’avez pas de statistiques à jour sur les tables, ce qui peut avoir un impact sur les performances des requêtes. L’optimiseur de requête utilise des statiques à jour pour estimer la cardinalité ou le nombre de lignes dans le résultat de la requête, ce qui permet à l’optimiseur de requête de créer un plan de requête de haute qualité.
En savoir plus sur l’entrepôt de données SQL : UpdateTableStatisticsSqlDW (Mettre à jour les statistiques sur les colonnes de table).
Effectuer un scale-up pour optimiser l’utilisation du cache avec SQL Data Warehouse
Nous avons détecté que vous aviez un pourcentage élevé de cache utilisé avec un faible pourcentage d’accès, indiquant un taux d’éviction de cache élevé qui peut affecter les performances de votre charge de travail.
En savoir plus sur l’entrepôt de données SQL : SqlDwIncreaseCacheCapacity (Effectuer un scale-up pour optimiser l’utilisation du cache avec SQL Data Warehouse).
Effectuer un scale-up ou mettre à jour la classe de ressources pour réduire la contention de tempdb avec SQL Data Warehouse
Nous avons détecté que vous avez une utilisation élevée de tempdb, ce qui peut affecter les performances de votre charge de travail.
Convertir les tables en tables répliquées avec SQL Data Warehouse
Nous avons détecté que vous pouvez tirer parti de l’utilisation de tables répliquées. Les tables répliquées vous permettent d’éviter les opérations de déplacement de données coûteuses et d’augmenter considérablement les performances de votre charge de travail.
En savoir plus sur l’entrepôt de données SQL : SqlDwReplicateTable (Convertir les tables en tables répliquées avec SQL Data Warehouse).
Fractionnez les fichiers indexés dans le compte de stockage pour améliorer le niveau de performance de charge
Nous avons déterminé que vous pouvez améliorer le débit de charge en fractionnant vos fichiers compressés dans votre compte de stockage. Un bon principe est de fractionner les fichiers compressés en 60 ou plus afin d’optimiser le parallélisme de votre charge.
En savoir plus sur l’entrepôt de données SQL : FileSplittingGuidance (Fractionner les fichiers indexés dans le compte de stockage pour améliorer le niveau de performance du chargement).
Agrandissez la taille de lot pendant le chargement pour optimiser le débit de charge, la compression des données et le niveau de performance des requêtes
Nous avons déterminé que vous pouvez améliorer le niveau de performance de la charge et le débit en agrandissant la taille de lot pendant le chargement dans votre base de données. Envisagez d’utiliser l’instruction COPY. Si vous ne pouvez pas utiliser l’instruction COPY, envisagez d’agrandir la taille de lot si vous utilisez des utilitaires de chargement comme l’API SQLBulkCopy ou BCP (un bon principe est d’utiliser une taille de lot comprise entre 100 000 et 1 million de lignes).
Colocalisez le compte de stockage dans la même région pour réduire la latence pendant le chargement
Nous avons constaté que vous procédiez au chargement depuis une région différente de celle de votre pool SQL. Vous avez tout intérêt à charger depuis la région de votre pool SQL pour réduire la latence pendant le chargement de données.
En savoir plus sur l’entrepôt de données SQL : ColocateStorageAccount (Colocaliser le compte de stockage dans la même région pour réduire la latence pendant le chargement).
Mettre à niveau votre bibliothèque cliente de stockage vers la dernière version afin d’optimiser la fiabilité et les performances
La dernière version de la bibliothèque cliente de stockage ou du Kit de développement logiciel (SDK) contient des correctifs pour les problèmes signalés par les clients et identifiés de manière proactive par notre processus d’assurance qualité. La dernière version offre également une optimisation de la fiabilité et des performances en plus de nouvelles fonctionnalités qui peuvent améliorer votre expérience globale d’utilisation du Stockage Azure.
En savoir plus sur Compte de stockage : UpdateStorageSDK (Mettre à niveau votre bibliothèque de client de stockage vers la dernière version afin d’optimiser la fiabilité et les performances).
Mettre à niveau votre bibliothèque cliente de stockage vers la dernière version afin d’optimiser la fiabilité et les performances
La dernière version de la bibliothèque cliente de stockage ou du Kit de développement logiciel (SDK) contient des correctifs pour les problèmes signalés par les clients et identifiés de manière proactive par notre processus d’assurance qualité. La dernière version offre également une optimisation de la fiabilité et des performances en plus de nouvelles fonctionnalités qui peuvent améliorer votre expérience globale d’utilisation du Stockage Azure.
Effectuer une mise à niveau vers des disques SSD Standard pour obtenir des performances cohérentes et améliorées
Étant donné que vous exécutez des charges de travail de machine virtuelle IaaS sur des disques managés HDD Standard, sachez qu’une option de disque SSD Standard est désormais disponible pour tous les types de machines virtuelles Azure. Les disques SSD Standard constituent une option de stockage économique optimisée pour les charges de travail nécessitant des performances cohérentes. Mettez à niveau votre configuration de disque dès aujourd’hui pour améliorer la latence, la fiabilité et la disponibilité. La mise à niveau requiert un redémarrage de la machine virtuelle qui prend de trois à cinq minutes.
En savoir plus sur le compte de stockage : StandardSSDForNonPremVM (Effectuer une mise à niveau vers des disques SSD Standard pour obtenir des performances cohérentes et améliorées).
Utiliser le stockage d’objets blob de blocs de performances Premium
Un ou plusieurs de vos comptes de stockage ont un taux de transactions élevé par Go de données d’objet blob de blocs stockées. Utilisez le stockage d’objets blob de blocs de performances Premium plutôt que le stockage de performances standard pour vos charges de travail qui nécessitent des temps de réponse de stockage rapides et/ou des taux de transactions élevés, et faites éventuellement des économies sur les coûts de stockage.
En savoir plus sur le compte de stockage : PremiumBlobStorageAccount (Utiliser le stockage d’objets blob de blocs de performances Premium).
Convertir des disques non managés de HDD Standard en SSD Premium à des fins de performances
Nous avons remarqué que votre disque HDD non managé approche des objectifs de performances. Les disques SSD Premium Azure offrent une prise en charge très performante et une faible latence pour les machines virtuelles avec des charges de travail gourmandes en E/S. Améliorez les performances de votre disque en convertissant votre disque HDD Standard en disque SSD Premium. La mise à niveau requiert un redémarrage de la machine virtuelle qui prend de trois à cinq minutes.
En savoir plus sur le compte de stockage : UMDHDDtoPremiumForPerformance (Convertir des disques non managés de HDD Standard en SSD Premium à des fins de performances).
Distribuer des données dans un groupe de serveurs pour répartir la charge de travail entre les nœuds
Il semble que les données ne sont pas distribuées dans ce groupe de serveurs, mais restent sur le coordinateur. Pour bénéficier de tous les avantages offerts par Hyperscale (Citus), distribuez les données sur les nœuds worker de le groupe de serveurs.
En savoir plus sur le groupe de serveurs Hyperscale (Citus) : OrcasPostgreSqlCitusDistributeData (Distribuer des données dans un groupe de serveurs pour répartir la charge de travail entre les nœuds).
Rééquilibrer les données dans un groupe de serveurs Hyperscale (Citus) pour répartir plus équitablement la charge de travail entre les nœuds Worker
Il semble que les données ne soient pas bien équilibrées entre les nœuds Worker de ce groupe de serveurs Hyperscale (Citus). Pour pouvoir utiliser chaque nœud Worker du groupe de serveurs Hyperscale (Citus) avec efficacité, rééquilibrez les données dans le groupe de serveurs.
Infrastructure de bureau virtuel
Améliorer l’expérience utilisateur et la connectivité en déployant des machines virtuelles plus proches de la localisation de l’utilisateur
Nous avons déterminé que vos machines virtuelles se trouvent dans une région différente ou éloignée de l’endroit où vos utilisateurs se connectent avec Azure Virtual Desktop, ce qui peut entraîner des temps de réponse de connexion prolongés et affecter l’expérience utilisateur globale. Lorsque vous créez des machines virtuelles pour vos pools d’hôtes, essayez d’utiliser une région plus proche de l’utilisateur. Une proximité étroite garantit une satisfaction continue avec le service Azure Virtual Desktop et une meilleure qualité d’expérience globale.
Changer la limite de session maximale pour votre pool d’hôtes à charge équilibrée en profondeur d’abord pour améliorer les performances d’une machine virtuelle
L’équilibrage de charge en profondeur d’abord utilise la limite de session maximale pour déterminer le nombre maximal d’utilisateurs qui peuvent avoir des sessions simultanées sur un même hôte de session. Si la limite de session maximale est trop élevée, toutes les sessions utilisateur sont dirigées vers le même hôte de session, ce qui peut entraîner des problèmes de performances et de fiabilité. Par conséquent, lors de la définition d’un pool d’hôtes en vue d’un équilibrage de charge en profondeur d’abord, définissez également une limite de session maximale appropriée en fonction de la configuration de votre déploiement et de la capacité de vos machines virtuelles. Pour résoudre ce problème, ouvrez les propriétés de votre pool d’hôtes et changez la valeur affichée en regard du paramètre « Limite de session maximale ».
web
Déplacer votre plan App Service vers PremiumV2 pour obtenir de meilleures performances
Votre application a traité plus de 1000 demandes par jour au cours des 3 derniers jours. Votre application peut bénéficier de l’infrastructure de performances plus élevées disponible avec le niveau App Service Premium V2. Le niveau Premium V2 comprend des machines virtuelles de la série Dv2 dotées de processeurs plus rapides, d’un stockage SSD et d’un ratio mémoire/nombre de cœurs multiplié par deux par rapport aux instances précédentes. Pour plus d’informations sur la mise à niveau vers Premium V2, voir notre documentation.
En savoir plus sur le service d’application : AppServiceMoveToPremiumV2 (Déplacer votre plan App Service vers PremiumV2 pour obtenir de meilleures performances).
Vérifier les connexions sortantes de votre ressource App Service
Votre application a ouvert un trop grand nombre de connexions de socket TCP/IP. Le dépassement des limites de connexion de port TCP/IP éphémères peut entraîner des problèmes de connectivité inattendus pour vos applications.
En savoir plus sur le service d’application : AppServiceOutboundConnections (Vérifier les connexions sortantes de votre ressource App Service).
Étapes suivantes
En savoir plus sur l’efficacité des performances – Microsoft Azure Well-Architected Framework