Partager via


jobs groupe de commande

Note

Ces informations s’appliquent à Databricks CLI versions 0.205 et ultérieures. L’interface CLI Databricks est en préversion publique.

L’utilisation de l’interface CLI Databricks est soumise à la licence Databricks et à la notification de confidentialité Databricks, y compris les dispositions relatives aux données d’utilisation.

Le jobs groupe de commandes dans l’interface CLI Databricks vous permet de créer, de modifier et de supprimer des travaux. Consultez les offres d'emploi Lakeflow.

annuler-toutes-les-exécutions des tâches databricks

Annuler toutes les exécutions actives d’un travail. Les exécutions sont annulées de manière asynchrone, ce qui n'empêche pas le démarrage de nouvelles exécutions.

databricks jobs cancel-all-runs [flags]

Arguments

None

Options

--all-queued-runs

    Paramètre booléen facultatif pour annuler toutes les exécutions en file d’attente.

--job-id int

    Identificateur canonique du travail dont il faut annuler toutes les exécutions.

--json JSON

    Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.

Indicateurs globaux

databricks jobs annuler-execution

Annulez une exécution.

Annule l'exécution d'un processus ou d'une tâche. L’exécution est annulée de façon asynchrone. Elle peut donc toujours s’exécuter une fois cette requête terminée.

databricks jobs cancel-run RUN_ID [flags]

Arguments

RUN_ID

    Ce champ est obligatoire.

Options

--json JSON

    Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.

--no-wait

    n’attendez pas d’atteindre l’état TERMINATED ou SKIPPED

--timeout duration

    durée maximale pour atteindre l'état TERMINATED ou SKIPPED (par défaut 20m0s)

Indicateurs globaux

création de tâches Databricks

Créez une nouvelle tâche.

databricks jobs create [flags]

Arguments

None

Options

--json JSON

    Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.

Indicateurs globaux

suppression des tâches Databricks

Supprimer un travail.

databricks jobs delete JOB_ID [flags]

Arguments

JOB_ID

    Identificateur canonique du travail à supprimer. Ce champ est obligatoire.

Options

--json JSON

    Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.

Indicateurs globaux

databricks jobs delete-run (supprimer une exécution)

Supprimer une exécution non active. Retourne une erreur si l’exécution est active.

databricks jobs delete-run RUN_ID [flags]

Arguments

RUN_ID

    ID de l'exécution à supprimer.

Options

--json JSON

    Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.

Indicateurs globaux

databricks jobs export-run (commande d'exportation)

Exportez et récupérez la tâche d’exécution du travail.

databricks jobs export-run RUN_ID [flags]

Arguments

RUN_ID

    Identificateur canonique de cette exécution. Ce champ est obligatoire.

Options

--views-to-export ViewsToExport

    Les affichages à exporter. Valeurs prises en charge : ALL, CODE, DASHBOARDS

Indicateurs globaux

La commande "databricks jobs get"

Récupère les détails d'une seule tâche.

Les tableaux volumineux dans les résultats sont paginés lorsqu’ils dépassent 100 éléments. Une demande de travail unique retourne toutes les propriétés de ce travail et les 100 premiers éléments des propriétés de tableau (tâches, job_clusters, environnements et paramètres). Utilisez le champ next_page_token pour rechercher d’autres résultats et transmettre sa valeur en tant que page_token dans les requêtes suivantes. Si des propriétés de tableau ont plus de 100 éléments, des résultats supplémentaires sont retournés sur les demandes suivantes. Les tableaux sans résultats supplémentaires seront vides sur les pages ultérieures.

databricks jobs get JOB_ID [flags]

Arguments

JOB_ID

    Identificateur canonique du travail sur lequel récupérer des informations. Ce champ est obligatoire.

Options

--page-token string

    Utilisez next_page_token retourné par la réponse GetJob précédente pour accéder à la page suivante des propriétés de tableau du travail.

Indicateurs globaux

databricks jobs get-run (commande d'exécution)

Récupère les métadonnées d’une exécution de travail.

Les tableaux volumineux dans les résultats sont paginés lorsqu’ils dépassent 100 éléments. Une demande d’exécution unique retourne toutes les propriétés de cette exécution et les 100 premiers éléments des propriétés de tableau (tâches, job_clusters, job_parameters et repair_history). Utilisez le champ next_page_token pour rechercher d’autres résultats et transmettre sa valeur en tant que page_token dans les requêtes suivantes. Si des propriétés de tableau ont plus de 100 éléments, des résultats supplémentaires sont retournés sur les demandes suivantes. Les tableaux sans résultats supplémentaires seront vides sur les pages ultérieures.

databricks jobs get-run RUN_ID [flags]

Arguments

RUN_ID

    Identificateur canonique de l’exécution pour laquelle récupérer les métadonnées. Ce champ est obligatoire.

Options

--include-history

    Incluez l’historique des réparations dans la réponse.

--include-resolved-values

    Incluez les valeurs de paramètre résolues dans la réponse.

--page-token string

    Utilisez next_page_token retourné par la réponse GetRun précédente pour accéder à la page suivante des propriétés de tableau de l'exécution.

Indicateurs globaux

databricks jobs get-run-output

Récupérez la sortie et les métadonnées de l’exécution d’une seule tâche. Lorsqu’une tâche de notebook retourne une valeur via l’appel dbutils.notebook.exit(), vous pouvez utiliser cette commande pour récupérer cette valeur. Databricks restreint cette API à retourner les 5 premiers Mo de la sortie. Pour obtenir un résultat plus grand, vous pouvez stocker les résultats des travaux dans un service de stockage cloud.

Cette commande vérifie que le paramètre run_id est valide et retourne un code d’état HTTP 400 si le paramètre run_id n’est pas valide. Les exécutions sont automatiquement supprimées après 60 jours. Si vous souhaitez les référencer au-delà de 60 jours, vous devez enregistrer les anciens résultats d’exécution avant leur expiration.

databricks jobs get-run-output RUN_ID [flags]

Arguments

RUN_ID

    Identificateur canonique de cette exécution.

Options

Indicateurs globaux

liste des tâches Databricks

Récupérer une liste des travaux.

databricks jobs list [flags]

Arguments

None

Options

--expand-tasks

    Indique s’il faut inclure les détails des tâches et du cluster dans la réponse.

--limit int

    Nombre de travaux à retourner.

--name string

    Filtre sur la liste basé sur le nom exact (sans distinction de casse) du travail.

--offset int

    Décalage du premier travail à retourner, par rapport au travail créé le plus récemment.

--page-token string

    Utilisez next_page_token ou prev_page_token retournés par la demande précédente pour répertorier respectivement la page suivante ou précédente des travaux.

Indicateurs globaux

databricks jobs list-runs

Répertorier les exécutions de travaux dans l’ordre décroissant par heure de début.

databricks jobs list-runs [flags]

Arguments

None

Options

--active-only

    Si active_only a la valeur true, seules les exécutions actives sont incluses dans les résultats ; sinon, répertorie les exécutions actives et terminées.

--completed-only

    Si completed_only a la valeur true, seules les exécutions terminées sont incluses dans les résultats ; sinon, répertorie les exécutions actives et terminées.

--expand-tasks

    Indique s’il faut inclure les détails des tâches et du cluster dans la réponse.

--job-id int

    Travail pour lequel la liste doit être exécutée.

--limit int

    Nombre d’exécutions à retourner.

--offset int

    Décalage de la première exécution à retourner, relatif à l’exécution la plus récente.

--page-token string

    Utilisez next_page_token ou prev_page_token retournés par la requête précédente pour répertorier respectivement la page suivante ou précédente des exécutions.

--run-type RunType

    Type d’exécutions à retourner. Valeurs prises en charge : [JOB_RUN, SUBMIT_RUN, WORKFLOW_RUN]

--start-time-from int

    Afficher les exécutions démarrées à ou après cette valeur.

--start-time-to int

    Afficher les exécutions démarrées à ou avant cette valeur.

Indicateurs globaux

databricks jobs repair-run

Réexécutez une ou plusieurs tâches de travail. Les tâches sont réexécutées dans le cadre de l'exécution initiale du travail. Ils utilisent les paramètres actuels du processus et de la tâche, et peuvent être consultés dans l’historique de l’exécution du processus d’origine.

databricks jobs repair-run RUN_ID [flags]

Arguments

RUN_ID

    ID d'exécution du travail pour le processus à réparer. L’exécution ne doit pas être en cours.

Options

--json JSON

    Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.

--latest-repair-id int

    ID de la dernière réparation.

--no-wait

    n’attendez pas d’atteindre l’état TERMINATED ou SKIPPED

--performance-target PerformanceTarget

    Mode de performance sur une tâche sans serveur. Valeurs prises en charge : [PERFORMANCE_OPTIMIZED, STANDARD]

--rerun-all-failed-tasks

    Si vrai, réparez toutes les tâches ayant échoué.

--rerun-dependent-tasks

    Si la valeur est true, réparez toutes les tâches qui dépendent des tâches de rerun_tasks, même si elles ont déjà été exécutées avec succès.

--timeout duration

    durée maximale pour atteindre l'état TERMINATED ou SKIPPED (par défaut 20m0s)

Indicateurs globaux

Réinitialisation des jobs Databricks

Remplacez tous les paramètres de la tâche donnée. Utilisez la databricks jobs update commande pour mettre à jour partiellement les paramètres du travail.

databricks jobs reset [flags]

Arguments

None

Options

--json JSON

    Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.

Indicateurs globaux

exécution immédiate des tâches Databricks

Exécuter un travail et retourner le run_id de l’exécution déclenchée.

databricks jobs run-now JOB_ID [flags]

Arguments

JOB_ID

    ID du travail à exécuter

Options

--idempotency-token string

    Jeton facultatif pour garantir l’idempotence des demandes d’exécution de travaux.

--json JSON

    Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.

--no-wait

    n’attendez pas d’atteindre l’état TERMINATED ou SKIPPED

--performance-target PerformanceTarget

    Mode de performance sur une tâche sans serveur. Valeurs prises en charge : [PERFORMANCE_OPTIMIZED, STANDARD]

--timeout duration

    durée maximale pour atteindre l'état TERMINATED ou SKIPPED (par défaut 20m0s)

Indicateurs globaux

databricks soumettre jobs

Créez et déclenchez une exécution unique. Cela vous permet d’envoyer une charge de travail directement sans créer de travail.

databricks jobs submit [flags]

Note

Les travaux envoyés avec databricks jobs submit ne sont pas enregistrés en tant que travail. Ils ne s’affichent pas dans l’interface utilisateur et ne réessayent pas lorsqu’ils échouent. Comme ils ne sont pas enregistrés, Azure Databricks ne peut pas optimiser automatiquement le calcul serverless en cas de défaillance. Si votre travail échoue, vous pouvez utiliser le calcul classique pour spécifier les besoins de calcul du travail. Vous pouvez également utiliser jobs create et jobs run-now pour créer et exécuter la tâche.

Arguments

None

Options

--budget-policy-id string

    L'utilisateur a spécifié l'identifiant de la politique budgétaire à utiliser pour cette exécution ponctuelle.

--idempotency-token string

    Jeton facultatif qui peut être utilisé pour garantir l’idempotence des requêtes d’exécution de travaux.

--json JSON

    Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.

--no-wait

    n’attendez pas d’atteindre l’état TERMINATED ou SKIPPED

--run-name string

    Nom facultatif pour l’exécution.

--timeout duration

    durée maximale pour atteindre l'état TERMINATED ou SKIPPED (par défaut 20m0s)

--timeout-seconds int

    Délai d’attente facultatif appliqué à chaque exécution de ce travail.

Indicateurs globaux

mise à jour des tâches Databricks

Ajoutez, mettez à jour ou supprimez des paramètres spécifiques d’un travail existant. Utiliser reset pour remplacer tous les paramètres de tâche.

databricks jobs update JOB_ID [flags]

Arguments

JOB_ID

    Identificateur canonique du travail à mettre à jour. Ce champ est obligatoire.

Options

--json JSON

    Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.

Indicateurs globaux

databricks jobs get-permission-levels

Obtenez les niveaux d’autorisation pour le job.

databricks jobs get-permission-levels JOB_ID [flags]

Arguments

JOB_ID

    Travail pour lequel obtenir ou gérer des autorisations.

Options

Indicateurs globaux

databricks jobs get-permissions (commande pour obtenir les autorisations)

Obtenir les autorisations d'un travail. Les travaux peuvent hériter des autorisations de leur objet racine.

databricks jobs get-permissions JOB_ID [flags]

Arguments

JOB_ID

    Travail pour lequel obtenir ou gérer des autorisations.

Options

Indicateurs globaux

databricks jobs définir-les-autorisations

Définissez les autorisations de travail.

Définit des autorisations sur un objet, en remplaçant les autorisations existantes s’ils existent. Supprime toutes les autorisations directes si aucune n’est spécifiée. Les objets peuvent hériter des autorisations de leur objet racine.

databricks jobs set-permissions JOB_ID [flags]

Arguments

JOB_ID

    Travail pour lequel obtenir ou gérer des autorisations.

Options

--json JSON

    Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.

Indicateurs globaux

mises à jour des autorisations de tâches Databricks

Mettez à jour les autorisations sur une tâche. Les travaux peuvent hériter des autorisations de leur objet racine.

databricks jobs update-permissions JOB_ID [flags]

Arguments

JOB_ID

    Travail pour lequel obtenir ou gérer des autorisations.

Options

--json JSON

    Chaîne JSON inline ou chemin @path vers le fichier JSON avec le corps de la requête.

Indicateurs globaux

Indicateurs globaux

--debug

  Active la journalisation du débogage.

-h ou --help

    Affiche l’aide pour l’interface CLI de Databricks, le groupe de commandes associé ou la commande concernée.

--log-file chaîne

    Chaîne représentant le fichier dans lequel écrire les journaux de sortie. Si cet indicateur n’est pas défini, les journaux de sortie sont écrits par défaut dans stderr.

--log-format Format

    Format des journaux : text ou json. La valeur par défaut est text.

--log-level chaîne

    Chaîne représentant le niveau de journalisation. Si cet indicateur n’est pas défini, le niveau de format de journal est désactivé.

Type -o, --output

    Type de sortie de commande, text ou json. La valeur par défaut est text.

-p, --profile chaîne

    Nom du profil dans le ~/.databrickscfg fichier à utiliser pour exécuter la commande. Si cet indicateur n’est pas spécifié, s’il existe, le profil nommé DEFAULT est utilisé.

--progress-format Format

    Format d’affichage des journaux d’activité de progression : default, append, inplace ou json

-t, --target chaîne

    Le cas échéant, la cible d’offre groupée à utiliser