Partage via


Charger des données d’utilisation sur Azure en mode indirect

Vous pouvez exporter les informations d’utilisation périodiquement. L’exportation et le chargement de ces informations crée et met à jour le contrôleur de données, l’instance gérée SQL et les ressources PostgreSQL dans Azure.

Remarque

Les informations d’utilisation sont automatiquement chargées pour le contrôleur de données Azure Arc déployé en mode de connectivité directe. Les instructions de cet article s’appliquent uniquement au chargement des informations d’utilisation pour le contrôleur de données Azure Arc déployé en mode de connectivité indirecte.

Attendez au moins 24 heures après avoir créé le contrôleur de données Azure Arc avant de charger des données d’utilisation.

Créer un principal du service et attribuer des rôles

Avant de continuer, assurez-vous que vous avez créé le principal du service requis et que vous l’avez affecté à un rôle approprié. Pour plus d’informations, consultez :

Les exemples de cet article utilisent des crochets pointus < ... > pour identifier les valeurs que vous devez remplacer avant d’exécuter le script. Remplacez les crochets et les valeurs à l’intérieur des crochets.

Charger les données d’utilisation

Les informations d’utilisation telles que l’inventaire et l’utilisation des ressources peuvent être téléchargées sur Azure de la manière suivante :

  1. Exportez les données d’utilisation à l’aide de la commande az arcdata dc export, comme suit :

Remarque

L’exportation des informations d’utilisation/facturation, des métriques et des journaux à l’aide de la commande az arcdata dc export nécessite de contourner la vérification SSL pour l’instant. Vous êtes invité à contourner la vérification SSL ou vous pouvez définir la variable d’environnement AZDATA_VERIFY_SSL=no pour éviter les invites. Il n’existe actuellement aucun moyen de configurer un certificat SSL pour l’API d’exportation du contrôleur de données.

az arcdata dc export --type usage --path usage.json --k8s-namespace <namespace> --use-k8s

Cette commande crée un fichier usage.json avec toutes les ressources de données avec Azure Arc, comme les instances gérées SQL et les instances PostgreSQL, etc., qui sont créées sur le contrôleur de données.

Actuellement, le fichier n’étant pas chiffré, vous pouvez en voir le contenu. N’hésitez pas à l’ouvrir dans un éditeur de texte pour voir à quoi ressemble le contenu.

Vous remarquerez qu’il existe deux ensembles de données : resources et data. L’ensemble de données resources est celui du contrôleur de données, de PostgreSQL et des instances managées SQL. Les enregistrements resources dans les données capturent les événements pertinents dans l’historique d’une ressource, lors de sa création, lors de sa mise à jour et lors de sa suppression. Les enregistrements data capturent le nombre de cœurs disponibles qu’une instance donnée peut utiliser à chaque heure.

Exemple d’entrée resource :

    {
        "customObjectName": "<resource type>-2020-29-5-23-13-17-164711",
        "uid": "4bc3dc6b-9148-4c7a-b7dc-01afc1ef5373",
        "instanceName": "sqlInstance001",
        "instanceNamespace": "arc",
        "instanceType": "<resource>",
        "location": "eastus",
        "resourceGroupName": "production-resources",
        "subscriptionId": "482c901a-129a-4f5d-86e3-cc6b294590b2",
        "isDeleted": false,
        "externalEndpoint": "32.191.39.83:1433",
        "vCores": "2",
        "createTimestamp": "05/29/2020 23:13:17",
        "updateTimestamp": "05/29/2020 23:13:17"
    }

Exemple d’entrée data :

        {
          "requestType": "usageUpload",
          "clusterId": "4b0917dd-e003-480e-ae74-1a8bb5e36b5d",
          "name": "DataControllerTestName",
          "subscriptionId": "482c901a-129a-4f5d-86e3-cc6b294590b2",
          "resourceGroup": "production-resources",
          "location": "eastus",
          "uploadRequest": {
            "exportType": "usages",
            "dataTimestamp": "2020-06-17T22:32:24Z",
            "data": "[{\"name\":\"sqlInstance001\",
                       \"namespace\":\"arc\",
                       \"type\":\"<resource type>\",
                       \"eventSequence\":1, 
                       \"eventId\":\"50DF90E8-FC2C-4BBF-B245-CB20DC97FF24\",
                       \"startTime\":\"2020-06-17T19:11:47.7533333\",
                       \"endTime\":\"2020-06-17T19:59:00\",
                       \"quantity\":1,
                       \"id\":\"4BC3DC6B-9148-4C7A-B7DC-01AFC1EF5373\"}]",
           "signature":"MIIE7gYJKoZIhvcNAQ...2xXqkK"
          }
        }
  1. Chargez les données d’utilisation à l’aide de la commande upload.

    az arcdata dc upload --path usage.json
    

Fréquence de chargement

En mode indirect, les informations d’utilisation doivent être chargées sur Azure au moins une fois tous les 30 jours. Il est vivement recommandé de charger plus fréquemment, par exemple tous les jours. Si les informations d’utilisation ne sont pas chargées au cours des 32 derniers jours, vous constaterez une certaine dégradation dans le service, par exemple l’impossibilité d’approvisionner de nouvelles ressources.

Il y aura deux types de notifications pour les chargements différés d’utilisation : la phase d’avertissement et la phase détériorée. Dans la phase d’avertissement, un message ressemblant au message suivante s’affichera Billing data for the Azure Arc data controller has not been uploaded in {0} hours. Please upload billing data as soon as possible..

Dans la phase détériorée, le message ressemble au message suivant Billing data for the Azure Arc data controller has not been uploaded in {0} hours. Some functionality will not be available until the billing data is uploaded..

Remarque

Le message d’avertissement s’affiche si l’utilisation n’a pas été chargée depuis plus de 48 heures.

La page Vue d’ensemble du portail Azure pour le contrôleur de données et l’état des ressources personnalisées du contrôleur de données dans votre cluster Kubernetes indiquent à la fois la dernière date de chargement et le ou les messages d’état.

Automatisation des chargements (facultatif)

Si vous souhaitez charger les métriques et les journaux sur une base planifiée, vous pouvez créer un script et l’exécuter sur la base d’un minuteur toutes les quelques minutes. Voici un exemple d’automatisation des chargements à l’aide d’un script de shell Linux.

Dans votre éditeur de texte ou de code, ajoutez ce qui suit au script dans le fichier, puis enregistrez-le en tant que fichier exécutable de script, tel que .sh (Linux/Mac) ou .cmd, .bat ou .ps1.

az arcdata dc export --type usage --path usage.json --force --k8s-namespace <namespace> --use-k8s
az arcdata dc upload --path usage.json

Rendre le fichier de script exécutable

chmod +x myuploadscript.sh

Exécutez le script tous les jours pour l’utilisation :

watch -n 1200 ./myuploadscript.sh

Vous pouvez également utiliser un planificateur de travaux comme cron ou le Planificateur de tâches Windows ou encore un orchestrateur comme Ansible, Puppet ou Chef.

Charger les métriques sur Azure Monitor

Charger les journaux sur Azure Monitor

Charger des données de facturation dans Azure et les afficher dans le portail Azure

Afficher la ressource Azure Arc Data Controller dans Portail Azure