Partage via


azdata bdc spark batch

S’applique à : Azure Data CLI (azdata)

Note

Certains scénarios précédemment gérés par Azure Data CLI (azdata) sont désormais gérés par le biais d’extensions Azure CLI (az) et de flux de travail Basés sur Azure Arc. Il n’existe aucun remplacement unique de 1:1 pour toutes les azdata commandes. Le tableau suivant met en évidence les alternatives Azure CLI couramment associées là où elles existent.

zone de commande azdata Extension /groupe de commandes Azure CLI informations de référence sur Azure CLI
azdata arc dc * az arcdata Informations de référence sur l’interface CLI de données Azure Arc
azdata arc sql mi * az arcdata sql mi Gérer Azure SQL Managed Instance avec l’interface CLI
azdata arc postgres * az arcdata postgres Gérer le serveur PostgreSQL avec l’interface CLI
azdata migrate * az datamigration Migrer à l’aide de l’interface CLI
azdata extension * az extension * Vue d’ensemble des extensions Azure CLI
azdata login az login az login
azdata sql shell / azdata sql query Aucun équivalent Azure CLI (utilisation sqlcmd, SSMS ou d’autres outils SQL) Utilitaire sqlcmd

SQL Server Management Studio

Pour les nouveaux scénarios d’automatisation et de gestion, préférez Azure CLI (az), les extensions Azure CLI et les expériences du portail Azure Arc.

L’article suivant fournit des informations de référence sur les commandes sql dans l’outil azdata. Pour plus d’informations sur les commandes azdata, consultez azdata reference

Commandes

Command Description
azdata bdc spark batch create Créez un lot Spark.
azdata bdc spark batch list Répertorier tous les lots dans Spark.
azdata bdc spark batch info Obtenez des informations sur un lot Spark actif.
azdata bdc spark batch log Obtenir les journaux d’exécution d’un lot Spark.
azdata bdc spark batch state Obtenir l’état d’exécution d’un lot Spark.
azdata bdc spark batch delete Supprimez un lot Spark.

azdata bdc spark batch create

Cela crée un travail Spark par lot qui exécute le code fourni.

azdata bdc spark batch create --file -f 
                              [--class-name -c]  
                              
[--arguments -a]  
                              
[--jar-files -j]  
                              
[--py-files -p]  
                              
[--files]  
                              
[--driver-memory]  
                              
[--driver-cores]  
                              
[--executor-memory]  
                              
[--executor-cores]  
                              
[--executor-count]  
                              
[--archives]  
                              
[--queue -q]  
                              
[--name -n]  
                              
[--config]

Exemples

Créez un lot Spark.

azdata spark batch create --code "2+2"

Paramètres requis

--file -f

Chemin d’accès au fichier à exécuter.

Paramètres facultatifs

--class-name -c

Nom de la classe à exécuter lors de la transmission d’un ou plusieurs fichiers jar.

--arguments -a

Liste des arguments. Pour passer une liste JSON encodez les valeurs. Exemple : '["entry1 », « entry2"]'.

--jar-files -j

Liste des chemins d’accès aux fichiers jar. Pour passer une liste JSON encodez les valeurs. Exemple : '["entry1 », « entry2"]'.

--py-files -p

Liste des chemins d’accès aux fichiers Python. Pour passer une liste JSON encodez les valeurs. Exemple : '["entry1 », « entry2"]'.

--files

Liste des chemins d’accès aux fichiers. Pour passer une liste JSON encodez les valeurs. Exemple : '["entry1 », « entry2"]'.

--driver-memory

Quantité de mémoire à allouer au pilote. Spécifiez des unités dans le cadre de la valeur. Exemple 512M ou 2G.

--driver-cores

Quantité de cœurs d’UC à allouer au pilote.

--executor-memory

Quantité de mémoire à allouer à l’exécuteur. Spécifiez des unités dans le cadre de la valeur. Exemple 512M ou 2G.

--executor-cores

Quantité de cœurs d’UC à allouer à l’exécuteur.

--executor-count

Nombre d’instances de l’exécuteur à exécuter.

--archives

Liste des chemins d’accès aux archives. Pour passer une liste JSON encodez les valeurs. Exemple : '["entry1 », « entry2"]'.

--queue -q

Nom de la file d’attente Spark dans laquelle exécuter la session.

--name -n

Nom de la session Spark.

--config

Liste des paires de valeurs de nom contenant des valeurs de configuration Spark. Encodé en tant que dictionnaire JSON. Exemple : '{"name » :"value », « name2 » :"value2"}'.

Arguments globaux

--debug

Augmentez la verbosité de la journalisation pour afficher tous les logs de débogage.

--help -h

Affichez ce message d’aide et quittez.

--output -o

Format de sortie. Valeurs autorisées : json, jsonc, table, tsv. Valeur par défaut : json.

--query -q

Chaîne de requête JMESPath. Pour plus d’informations et d’exemples, consultez http://jmespath.org/.

--verbose

Augmentez le niveau de verbosité de la journalisation. Utilisez --debug pour les journaux de débogage complets.

azdata bdc spark batch list

Répertorier tous les lots dans Spark.

azdata bdc spark batch list 

Exemples

Répertorier tous les lots actifs.

azdata spark batch list

Arguments globaux

--debug

Augmentez la verbosité de la journalisation pour afficher tous les logs de débogage.

--help -h

Affichez ce message d’aide et quittez.

--output -o

Format de sortie. Valeurs autorisées : json, jsonc, table, tsv. Valeur par défaut : json.

--query -q

Chaîne de requête JMESPath. Pour plus d’informations et d’exemples, consultez http://jmespath.org/.

--verbose

Augmentez le niveau de verbosité de la journalisation. Utilisez --debug pour les journaux de débogage complets.

azdata bdc spark batch info

Obtient les informations d’un lot Spark avec l’ID donné. L’ID de lot est retourné à partir de « spark batch create ».

azdata bdc spark batch info --batch-id -i 
                            

Exemples

Obtenez des informations de lot pour le lot avec l’ID 0.

azdata spark batch info --batch-id 0

Paramètres requis

--batch-id -i

Numéro d’ID de lot Spark.

Arguments globaux

--debug

Augmentez la verbosité de la journalisation pour afficher tous les logs de débogage.

--help -h

Affichez ce message d’aide et quittez.

--output -o

Format de sortie. Valeurs autorisées : json, jsonc, table, tsv. Valeur par défaut : json.

--query -q

Chaîne de requête JMESPath. Pour plus d’informations et d’exemples, consultez http://jmespath.org/.

--verbose

Augmentez le niveau de verbosité de la journalisation. Utilisez --debug pour les journaux de débogage complets.

azdata bdc spark batch log

Obtient les entrées du journal par lots d’un lot Spark avec l’ID donné. L’ID de lot est retourné à partir de « spark batch create ».

azdata bdc spark batch log --batch-id -i 
                           

Exemples

Obtenez le journal par lots pour le lot avec l’ID 0.

azdata spark batch log --batch-id 0

Paramètres requis

--batch-id -i

Numéro d’ID de lot Spark.

Arguments globaux

--debug

Augmentez la verbosité de la journalisation pour afficher tous les logs de débogage.

--help -h

Affichez ce message d’aide et quittez.

--output -o

Format de sortie. Valeurs autorisées : json, jsonc, table, tsv. Valeur par défaut : json.

--query -q

Chaîne de requête JMESPath. Pour plus d’informations et d’exemples, consultez http://jmespath.org/.

--verbose

Augmentez le niveau de verbosité de la journalisation. Utilisez --debug pour les journaux de débogage complets.

azdata bdc spark batch state

Obtient l’état du lot d’un lot Spark avec l’ID donné. L’ID de lot est retourné à partir de « spark batch create ».

azdata bdc spark batch state --batch-id -i 
                             

Exemples

Obtenez l’état du lot pour le lot avec l’ID 0.

azdata spark batch state --batch-id 0

Paramètres requis

--batch-id -i

Numéro d’ID de lot Spark.

Arguments globaux

--debug

Augmentez la verbosité de la journalisation pour afficher tous les logs de débogage.

--help -h

Affichez ce message d’aide et quittez.

--output -o

Format de sortie. Valeurs autorisées : json, jsonc, table, tsv. Valeur par défaut : json.

--query -q

Chaîne de requête JMESPath. Pour plus d’informations et d’exemples, consultez http://jmespath.org/.

--verbose

Augmentez le niveau de verbosité de la journalisation. Utilisez --debug pour les journaux de débogage complets.

azdata bdc spark batch delete

Cela supprime un lot Spark. L’ID de lot est retourné à partir de « spark batch create ».

azdata bdc spark batch delete --batch-id -i 
                              

Exemples

Supprimez un lot.

azdata spark batch delete --batch-id 0

Paramètres requis

--batch-id -i

Numéro d’ID de lot Spark.

Arguments globaux

--debug

Augmentez la verbosité de la journalisation pour afficher tous les logs de débogage.

--help -h

Affichez ce message d’aide et quittez.

--output -o

Format de sortie. Valeurs autorisées : json, jsonc, table, tsv. Valeur par défaut : json.

--query -q

Chaîne de requête JMESPath. Pour plus d’informations et d’exemples, consultez http://jmespath.org/.

--verbose

Augmentez le niveau de verbosité de la journalisation. Utilisez --debug pour les journaux de débogage complets.

Étapes suivantes

Pour plus d’informations sur les autres commandes azdata, consultez azdata reference.

Pour plus d’informations sur l’installation de l’outil azdata, consultez Installer azdata.