次の方法で共有


AI ランタイムに接続する

Important

単一ノード タスクの AI ランタイムは パブリック プレビュー段階です。 マルチ GPU ワークロード用の分散トレーニング API は ベータ版のままです。

この記事では、対話型ノートブック、スケジュールされたジョブ、およびジョブ API から AI ランタイムに接続する方法について説明します。

対話型 (ノートブック)

これは、AI ランタイムを使用する主な方法です。 ノートブックを接続して環境を構成するには:

  1. ノートブックで、上部にある [接続 ] ドロップダウン メニューをクリックし、[ サーバーレス GPU] を選択します。
  2. [ 環境] アイコン をクリックして、[ 環境 ] サイド パネルを開きます。
  3. [アクセラレータ] フィールドから A10 または H100 を選択します。
  4. [基本環境] フィールドから、既定の環境には [なし] を選択し、AI 環境には [AIv4] を選択します。
  5. [ 適用 ] をクリックし、ノートブック環境に AI ランタイムを適用することを 確認 します。

コンピューティングへの接続は、非アクティブ状態が 60 分続くと自動的に終了します。

ヒント

GPU を必要としない操作 (Git リポジトリの複製、データ形式の変換、探索的データ分析など) の場合は、GPU リソースを保持するためにノートブックを CPU クラスターにアタッチします。

ジョブ (スケジュール済み)

サーバーレス GPU を定期的なジョブとして使用するノートブックをスケジュールできます。 詳細については、 スケジュールされたノートブック ジョブの作成と管理 に関するページを参照してください。

使用するノートブックを開いた後:

  1. 右上にある [スケジュール ] ボタンを選択します。
  2. [ スケジュールの追加] を選択します
  3. [ 新しいスケジュール ] フォームに ジョブ名スケジュールコンピューティングを設定します
  4. を選択してを作成します。

ジョブとパイプライン UI からジョブを作成 および スケジュールすることもできます。 詳細なガイダンスについては、「 新しいジョブを作成 する」を参照してください。

サーバーレス GPU スケジュール ジョブでは、[ 環境 ] パネルを使用した依存関係の追加はサポートされていません。 依存関係は、ノートブック内にプログラムでインストールする必要があります (たとえば、 %pip install)。 自動回復はサポートされていません。互換性のないパッケージが原因でジョブが失敗した場合は、手動で修正して再実行する必要があります。 7 日間の最大実行時間を超える可能性があるワークロードの場合は、再開できるように手動チェックポイント処理を実装します。

Jobs API と Databricks アセット バンドル

Databricks Jobs API または Databricksアセット バンドルを使用して、AI ランタイム ジョブをプログラムで作成および管理できます。 デプロイ パイプラインを自動化するために、ジョブまたはバンドル定義でコンピューティングの種類をサーバーレス GPU として構成します。

次の例は、サーバーレス GPU ジョブ上の AI ランタイムの Databricks アセット バンドル構成を示しています。

resources:
  jobs:
    sample_job:
      name: sample_job_h100

      trigger:
        periodic:
          interval: 1
          unit: DAYS

      parameters:
        - name: catalog
          default: ${var.catalog}
        - name: schema
          default: ${var.schema}

      environments:
        - environment_key: default
          spec:
            environment_version: '4'

      tasks:
        - task_key: notebook_task
          notebook_task:
            notebook_path: /Workspace/Users/your_email/your_notebook
          environment_key: default
          compute:
            hardware_accelerator: GPU_8xH100