Partage via


Se connecter à AI Runtime

Important

AI Runtime pour les tâches à nœud unique est disponible en préversion publique. L’API d’entraînement distribuée pour les charges de travail multi-GPU reste en version bêta.

Cet article explique comment se connecter à AI Runtime à partir de notebooks interactifs, de travaux planifiés et de l’API Travaux.

Interactive (Notebooks)

Il s’agit du principal moyen d’utiliser AI Runtime. Pour connecter votre notebook et configurer l’environnement :

  1. Dans un bloc-notes, cliquez sur le menu déroulant Se connecter en haut et sélectionnez GPU serverless.
  2. Cliquez sur l’icône Environnement. Pour ouvrir le volet latéral Environnement .
  3. Sélectionnez A10 ou H100 dans le champ Accélérateur .
  4. Sélectionnez Aucun pour l’environnement par défaut ou l’IA v4 pour l’environnement IA dans le champ Environnement de base .
  5. Cliquez sur Appliquer , puis Confirmez que vous souhaitez appliquer le runtime IA à votre environnement de notebook.

Note

La connexion à votre calcul se termine automatiquement après 60 minutes d’inactivité.

Conseil / Astuce

Pour les opérations qui ne nécessitent pas de GPU (par exemple, clonage d’un référentiel Git, conversion de formats de données ou analyse exploratoire des données), attachez votre bloc-notes à un cluster d’UC pour préserver les ressources GPU.

Travaux (planifiés)

Vous pouvez planifier des notebooks qui utilisent un GPU sans serveur comme des tâches récurrentes. Pour en savoir plus, consultez Créer et gérer des travaux de notebook planifiés.

Après avoir ouvert le bloc-notes que vous souhaitez utiliser :

  1. Sélectionnez le bouton Planification en haut à droite.
  2. Sélectionnez Ajouter une planification.
  3. Remplissez le formulaire Nouvelle planification avec le nom du travail, la planification et le ressources de calcul.
  4. Cliquez sur Créer.

Vous pouvez également créer et planifier des travaux à partir de l’interface utilisateur travaux et pipelines . Consultez Créer un travail pour obtenir des instructions pas à pas.

Note

L’ajout de dépendances à l’aide du panneau Environnements n’est pas pris en charge pour les tâches programmées GPU serverless. Les dépendances doivent être installées de manière programmatique dans votre notebook (par exemple, %pip install). La récupération automatique n’est pas prise en charge : si votre travail échoue en raison de packages incompatibles, vous devez corriger et réexécuter manuellement. Pour les charges de travail qui peuvent dépasser le runtime maximal de 7 jours, implémentez des points de contrôle manuels pour permettre la reprise.

API de tâches et ensembles de ressources Databricks

Vous pouvez créer et gérer des travaux AI Runtime par programmation à l’aide de l’API Databricks Jobs ou des bundles de ressources Databricks. Configurez le type de calcul en tant que GPU serverless dans votre travail ou définition de bundle pour automatiser les pipelines de déploiement.

L’exemple suivant montre une configuration Databricks Asset Bundle pour un runtime IA sur un travail GPU serverless :

resources:
  jobs:
    sample_job:
      name: sample_job_h100

      trigger:
        periodic:
          interval: 1
          unit: DAYS

      parameters:
        - name: catalog
          default: ${var.catalog}
        - name: schema
          default: ${var.schema}

      environments:
        - environment_key: default
          spec:
            environment_version: '4'

      tasks:
        - task_key: notebook_task
          notebook_task:
            notebook_path: /Workspace/Users/your_email/your_notebook
          environment_key: default
          compute:
            hardware_accelerator: GPU_8xH100