Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Note
Ces informations s’appliquent à Databricks CLI versions 0.205 et ultérieures. L’interface CLI Databricks est en préversion publique.
L’utilisation de l’interface CLI Databricks est soumise à la licence Databricks et à la notification de confidentialité Databricks, y compris les dispositions relatives aux données d’utilisation.
Le jobs groupe de commandes dans l’interface CLI Databricks vous permet de créer, de modifier et de supprimer des travaux. Consultez les offres d'emploi Lakeflow.
annuler-toutes-les-exécutions des tâches databricks
Annuler toutes les exécutions actives d’un travail. Les exécutions sont annulées de manière asynchrone, ce qui n'empêche pas le démarrage de nouvelles exécutions.
databricks jobs cancel-all-runs [flags]
Arguments
None
Options
--all-queued-runs
Paramètre booléen facultatif pour annuler toutes les exécutions en file d’attente.
--job-id int
Identificateur canonique du travail dont il faut annuler toutes les exécutions.
--json JSON
Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.
databricks jobs annuler-execution
Annulez une exécution.
Annule l'exécution d'un processus ou d'une tâche. L’exécution est annulée de façon asynchrone. Elle peut donc toujours s’exécuter une fois cette requête terminée.
databricks jobs cancel-run RUN_ID [flags]
Arguments
RUN_ID
Ce champ est obligatoire.
Options
--json JSON
Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.
--no-wait
n’attendez pas d’atteindre l’état TERMINATED ou SKIPPED
--timeout duration
durée maximale pour atteindre l'état TERMINATED ou SKIPPED (par défaut 20m0s)
création de tâches Databricks
Créez une nouvelle tâche.
databricks jobs create [flags]
Arguments
None
Options
--json JSON
Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.
suppression des tâches Databricks
Supprimer un travail.
databricks jobs delete JOB_ID [flags]
Arguments
JOB_ID
Identificateur canonique du travail à supprimer. Ce champ est obligatoire.
Options
--json JSON
Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.
databricks jobs delete-run (supprimer une exécution)
Supprimer une exécution non active. Retourne une erreur si l’exécution est active.
databricks jobs delete-run RUN_ID [flags]
Arguments
RUN_ID
ID de l'exécution à supprimer.
Options
--json JSON
Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.
databricks jobs export-run (commande d'exportation)
Exportez et récupérez la tâche d’exécution du travail.
databricks jobs export-run RUN_ID [flags]
Arguments
RUN_ID
Identificateur canonique de cette exécution. Ce champ est obligatoire.
Options
--views-to-export ViewsToExport
Les affichages à exporter. Valeurs prises en charge : ALL, CODE, DASHBOARDS
La commande "databricks jobs get"
Récupère les détails d'une seule tâche.
Les tableaux volumineux dans les résultats sont paginés lorsqu’ils dépassent 100 éléments. Une demande de travail unique retourne toutes les propriétés de ce travail et les 100 premiers éléments des propriétés de tableau (tâches, job_clusters, environnements et paramètres). Utilisez le champ next_page_token pour rechercher d’autres résultats et transmettre sa valeur en tant que page_token dans les requêtes suivantes. Si des propriétés de tableau ont plus de 100 éléments, des résultats supplémentaires sont retournés sur les demandes suivantes. Les tableaux sans résultats supplémentaires seront vides sur les pages ultérieures.
databricks jobs get JOB_ID [flags]
Arguments
JOB_ID
Identificateur canonique du travail sur lequel récupérer des informations. Ce champ est obligatoire.
Options
--page-token string
Utilisez next_page_token retourné par la réponse GetJob précédente pour accéder à la page suivante des propriétés de tableau du travail.
databricks jobs get-run (commande d'exécution)
Récupère les métadonnées d’une exécution de travail.
Les tableaux volumineux dans les résultats sont paginés lorsqu’ils dépassent 100 éléments. Une demande d’exécution unique retourne toutes les propriétés de cette exécution et les 100 premiers éléments des propriétés de tableau (tâches, job_clusters, job_parameters et repair_history). Utilisez le champ next_page_token pour rechercher d’autres résultats et transmettre sa valeur en tant que page_token dans les requêtes suivantes. Si des propriétés de tableau ont plus de 100 éléments, des résultats supplémentaires sont retournés sur les demandes suivantes. Les tableaux sans résultats supplémentaires seront vides sur les pages ultérieures.
databricks jobs get-run RUN_ID [flags]
Arguments
RUN_ID
Identificateur canonique de l’exécution pour laquelle récupérer les métadonnées. Ce champ est obligatoire.
Options
--include-history
Incluez l’historique des réparations dans la réponse.
--include-resolved-values
Incluez les valeurs de paramètre résolues dans la réponse.
--page-token string
Utilisez next_page_token retourné par la réponse GetRun précédente pour accéder à la page suivante des propriétés de tableau de l'exécution.
databricks jobs get-run-output
Récupérez la sortie et les métadonnées de l’exécution d’une seule tâche. Lorsqu’une tâche de notebook retourne une valeur via l’appel dbutils.notebook.exit(), vous pouvez utiliser cette commande pour récupérer cette valeur. Databricks restreint cette API à retourner les 5 premiers Mo de la sortie. Pour obtenir un résultat plus grand, vous pouvez stocker les résultats des travaux dans un service de stockage cloud.
Cette commande vérifie que le paramètre run_id est valide et retourne un code d’état HTTP 400 si le paramètre run_id n’est pas valide. Les exécutions sont automatiquement supprimées après 60 jours. Si vous souhaitez les référencer au-delà de 60 jours, vous devez enregistrer les anciens résultats d’exécution avant leur expiration.
databricks jobs get-run-output RUN_ID [flags]
Arguments
RUN_ID
Identificateur canonique de cette exécution.
Options
liste des tâches Databricks
Récupérer une liste des travaux.
databricks jobs list [flags]
Arguments
None
Options
--expand-tasks
Indique s’il faut inclure les détails des tâches et du cluster dans la réponse.
--limit int
Nombre de travaux à retourner.
--name string
Filtre sur la liste basé sur le nom exact (sans distinction de casse) du travail.
--offset int
Décalage du premier travail à retourner, par rapport au travail créé le plus récemment.
--page-token string
Utilisez next_page_token ou prev_page_token retournés par la demande précédente pour répertorier respectivement la page suivante ou précédente des travaux.
databricks jobs list-runs
Répertorier les exécutions de travaux dans l’ordre décroissant par heure de début.
databricks jobs list-runs [flags]
Arguments
None
Options
--active-only
Si active_only a la valeur true, seules les exécutions actives sont incluses dans les résultats ; sinon, répertorie les exécutions actives et terminées.
--completed-only
Si completed_only a la valeur true, seules les exécutions terminées sont incluses dans les résultats ; sinon, répertorie les exécutions actives et terminées.
--expand-tasks
Indique s’il faut inclure les détails des tâches et du cluster dans la réponse.
--job-id int
Travail pour lequel la liste doit être exécutée.
--limit int
Nombre d’exécutions à retourner.
--offset int
Décalage de la première exécution à retourner, relatif à l’exécution la plus récente.
--page-token string
Utilisez next_page_token ou prev_page_token retournés par la requête précédente pour répertorier respectivement la page suivante ou précédente des exécutions.
--run-type RunType
Type d’exécutions à retourner. Valeurs prises en charge : [JOB_RUN, SUBMIT_RUN, WORKFLOW_RUN]
--start-time-from int
Afficher les exécutions démarrées à ou après cette valeur.
--start-time-to int
Afficher les exécutions démarrées à ou avant cette valeur.
databricks jobs repair-run
Réexécutez une ou plusieurs tâches de travail. Les tâches sont réexécutées dans le cadre de l'exécution initiale du travail. Ils utilisent les paramètres actuels du processus et de la tâche, et peuvent être consultés dans l’historique de l’exécution du processus d’origine.
databricks jobs repair-run RUN_ID [flags]
Arguments
RUN_ID
ID d'exécution du travail pour le processus à réparer. L’exécution ne doit pas être en cours.
Options
--json JSON
Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.
--latest-repair-id int
ID de la dernière réparation.
--no-wait
n’attendez pas d’atteindre l’état TERMINATED ou SKIPPED
--performance-target PerformanceTarget
Mode de performance sur une tâche sans serveur. Valeurs prises en charge : [PERFORMANCE_OPTIMIZED, STANDARD]
--rerun-all-failed-tasks
Si vrai, réparez toutes les tâches ayant échoué.
--rerun-dependent-tasks
Si la valeur est true, réparez toutes les tâches qui dépendent des tâches de rerun_tasks, même si elles ont déjà été exécutées avec succès.
--timeout duration
durée maximale pour atteindre l'état TERMINATED ou SKIPPED (par défaut 20m0s)
Réinitialisation des jobs Databricks
Remplacez tous les paramètres de la tâche donnée. Utilisez la databricks jobs update commande pour mettre à jour partiellement les paramètres du travail.
databricks jobs reset [flags]
Arguments
None
Options
--json JSON
Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.
exécution immédiate des tâches Databricks
Exécuter un travail et retourner le run_id de l’exécution déclenchée.
databricks jobs run-now JOB_ID [flags]
Arguments
JOB_ID
ID du travail à exécuter
Options
--idempotency-token string
Jeton facultatif pour garantir l’idempotence des demandes d’exécution de travaux.
--json JSON
Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.
--no-wait
n’attendez pas d’atteindre l’état TERMINATED ou SKIPPED
--performance-target PerformanceTarget
Mode de performance sur une tâche sans serveur. Valeurs prises en charge : [PERFORMANCE_OPTIMIZED, STANDARD]
--timeout duration
durée maximale pour atteindre l'état TERMINATED ou SKIPPED (par défaut 20m0s)
databricks soumettre jobs
Créez et déclenchez une exécution unique. Cela vous permet d’envoyer une charge de travail directement sans créer de travail.
databricks jobs submit [flags]
Note
Les travaux envoyés avec databricks jobs submit ne sont pas enregistrés en tant que travail. Ils ne s’affichent pas dans l’interface utilisateur et ne réessayent pas lorsqu’ils échouent. Comme ils ne sont pas enregistrés, Azure Databricks ne peut pas optimiser automatiquement le calcul serverless en cas de défaillance. Si votre travail échoue, vous pouvez utiliser le calcul classique pour spécifier les besoins de calcul du travail. Vous pouvez également utiliser jobs create et jobs run-now pour créer et exécuter la tâche.
Arguments
None
Options
--budget-policy-id string
L'utilisateur a spécifié l'identifiant de la politique budgétaire à utiliser pour cette exécution ponctuelle.
--idempotency-token string
Jeton facultatif qui peut être utilisé pour garantir l’idempotence des requêtes d’exécution de travaux.
--json JSON
Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.
--no-wait
n’attendez pas d’atteindre l’état TERMINATED ou SKIPPED
--run-name string
Nom facultatif pour l’exécution.
--timeout duration
durée maximale pour atteindre l'état TERMINATED ou SKIPPED (par défaut 20m0s)
--timeout-seconds int
Délai d’attente facultatif appliqué à chaque exécution de ce travail.
mise à jour des tâches Databricks
Ajoutez, mettez à jour ou supprimez des paramètres spécifiques d’un travail existant. Utiliser reset pour remplacer tous les paramètres de tâche.
databricks jobs update JOB_ID [flags]
Arguments
JOB_ID
Identificateur canonique du travail à mettre à jour. Ce champ est obligatoire.
Options
--json JSON
Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.
databricks jobs get-permission-levels
Obtenez les niveaux d’autorisation pour le job.
databricks jobs get-permission-levels JOB_ID [flags]
Arguments
JOB_ID
Travail pour lequel obtenir ou gérer des autorisations.
Options
databricks jobs get-permissions (commande pour obtenir les autorisations)
Obtenir les autorisations d'un travail. Les travaux peuvent hériter des autorisations de leur objet racine.
databricks jobs get-permissions JOB_ID [flags]
Arguments
JOB_ID
Travail pour lequel obtenir ou gérer des autorisations.
Options
databricks jobs définir-les-autorisations
Définissez les autorisations de travail.
Définit des autorisations sur un objet, en remplaçant les autorisations existantes s’ils existent. Supprime toutes les autorisations directes si aucune n’est spécifiée. Les objets peuvent hériter des autorisations de leur objet racine.
databricks jobs set-permissions JOB_ID [flags]
Arguments
JOB_ID
Travail pour lequel obtenir ou gérer des autorisations.
Options
--json JSON
Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.
mises à jour des autorisations de tâches Databricks
Mettez à jour les autorisations sur une tâche. Les travaux peuvent hériter des autorisations de leur objet racine.
databricks jobs update-permissions JOB_ID [flags]
Arguments
JOB_ID
Travail pour lequel obtenir ou gérer des autorisations.
Options
--json JSON
Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.
Indicateurs globaux
--debug
Active la journalisation du débogage.
-h ou --help
Affiche l’aide pour l’interface CLI de Databricks, le groupe de commandes associé ou la commande concernée.
--log-file chaîne
Chaîne représentant le fichier dans lequel écrire les journaux de sortie. Si cet indicateur n’est pas défini, les journaux de sortie sont écrits par défaut dans stderr.
--log-format Format
Format des journaux : text ou json. La valeur par défaut est text.
--log-level chaîne
Chaîne représentant le niveau de journalisation. Si cet indicateur n’est pas défini, le niveau de format de journal est désactivé.
Type -o, --output
Type de sortie de commande, text ou json. La valeur par défaut est text.
-p, --profile chaîne
Nom du profil dans le ~/.databrickscfg fichier à utiliser pour exécuter la commande. Si cet indicateur n’est pas spécifié, s’il existe, le profil nommé DEFAULT est utilisé.
--progress-format Format
Format d’affichage des journaux d’activité de progression : default, append, inplace ou json
-t, --target chaîne
Le cas échéant, la cible d’offre groupée à utiliser