Dela via


Ansluta till AI Runtime

Viktigt!

AI Runtime för aktiviteter med en nod finns i offentlig förhandsversion. Det distribuerade tränings-API:et för multi-GPU-arbetsbelastningar finns kvar i Beta.

Den här artikeln beskriver hur du ansluter till AI Runtime från interaktiva notebook-filer, schemalagda jobb och JOBB-API:et.

Interaktiv (Notebooks)

Det här är det primära sättet att använda AI Runtime. För att ansluta din dator och konfigurera miljön:

  1. I en notebook-fil klickar du på den nedrullningsbara menyn Anslut längst upp och väljer Serverlös GPU.
  2. Klicka på miljöikonen. för att öppna sidopanelen Miljö.
  3. Välj A10 eller H100 i fältet Accelerator .
  4. Välj Ingen för standardmiljön eller AI v4 för AI-miljön från fältet Basmiljö .
  5. Klicka på Användoch bekräfta sedan att du vill använda AI Runtime i notebook-miljön.

Anmärkning

Anslutningen till din beräkning avslutas automatiskt efter 60 minuters inaktivitet.

Tips/Råd

För åtgärder som inte kräver GPU:er (till exempel kloning av en Git-lagringsplats, konvertering av dataformat eller undersökande dataanalys) bifogar du notebook-filen till ett CPU-kluster för att bevara GPU-resurser.

Jobb (schemalagd)

Du kan schemalägga notebooks som använder serverless GPU som återkommande uppgifter. Mer information finns i Skapa och hantera schemalagda notebook-jobb .

När du har öppnat anteckningsboken som du vill använda:

  1. Välj knappen Schema längst upp till höger.
  2. Välj Lägg till schema.
  3. Fyll i formuläret Nytt schema med Jobbnamn, Schema och Beräkning.
  4. Välj Skapa.

Du kan också skapa och schemalägga jobb från Jobb och Pipelines-användargränssnittet. Stegvis vägledning finns i Skapa ett nytt jobb .

Anmärkning

Det går inte att lägga till beroenden med hjälp av panelen Miljöer för serverlösa GPU-schemalagda jobb. Beroenden måste installeras programmässigt i din notebook-fil (till exempel %pip install). Automatisk återställning stöds inte – om jobbet misslyckas på grund av inkompatibla paket måste du åtgärda och köra det igen manuellt. För arbetsbelastningar som kan överskrida den maximala körtiden på 7 dagar implementerar du manuella kontrollpunkter för att tillåta återupptagande.

Jobs API och Databricks-tillgångspaket

Du kan programmatiskt skapa och hantera AI Runtime-jobb med Jobb-API:t för Databricks eller Databricks Asset-paket. Konfigurera datortypen som serverlös GPU i din jobbs- eller paketdefinition för att automatisera distributionsflöden.

I följande exempel visas en Databricks Asset Bundle-konfiguration för en AI-körning på ett serverlöst GPU-jobb:

resources:
  jobs:
    sample_job:
      name: sample_job_h100

      trigger:
        periodic:
          interval: 1
          unit: DAYS

      parameters:
        - name: catalog
          default: ${var.catalog}
        - name: schema
          default: ${var.schema}

      environments:
        - environment_key: default
          spec:
            environment_version: '4'

      tasks:
        - task_key: notebook_task
          notebook_task:
            notebook_path: /Workspace/Users/your_email/your_notebook
          environment_key: default
          compute:
            hardware_accelerator: GPU_8xH100