Udostępnij za pomocą


Bezserwerowe obliczenia procesora GPU

Ważne

Ta funkcja jest dostępna w wersji beta.

W tym artykule opisano bezserwerowe obliczenia procesora GPU w usłudze Databricks i przedstawiono zalecane przypadki użycia, wskazówki dotyczące konfigurowania zasobów obliczeniowych procesora GPU i ograniczeń funkcji.

Co to jest przetwarzanie bezserwerowe procesora GPU?

Przetwarzanie bezserwerowe procesora GPU jest częścią oferty obliczeniowej bezserwerowej. Bezserwerowe obliczenia procesora GPU są przeznaczone dla niestandardowych obciążeń uczenia głębokiego z jednym i wieloma węzłami. Możesz użyć bezserwerowej mocy obliczeniowej GPU do trenowania i dostosowywania modeli niestandardowych przy użyciu ulubionych frameworków i uzyskać najnowocześniejszą efektywność, wydajność oraz jakość.

Bezserwerowe obliczenia procesora GPU obejmują:

  • Zintegrowane środowisko zeszytów, katalogu Unity i biblioteki MLflow: Możesz interaktywnie rozwijać swój kod za pomocą zeszytów.
  • Akceleratory procesora GPU A10:A10 gpu zostały zaprojektowane w celu przyspieszenia małych i średnich obciążeń uczenia maszynowego i uczenia głębokiego, w tym klasycznych modeli uczenia maszynowego i dostrajania mniejszych modeli językowych. A10s są dobrze dostosowane do zadań z umiarkowanymi wymaganiami obliczeniowymi.
  • Obsługa wielu GPU i wielu węzłów: Można uruchamiać rozproszone obciążenia treningowe na wielu GPU i wielu węzłach, korzystając z bezserwerowego interfejsu API języka Python dla GPU. Zobacz Trenowanie rozproszone.

Wstępnie zainstalowane pakiety w obliczeniach bezserwerowych procesorów GPU nie zastępują usługi Databricks Runtime ML. Chociaż istnieją typowe pakiety, nie wszystkie zależności i biblioteki uczenia maszynowego środowiska Databricks Runtime są odzwierciedlane w bezserwerowym środowisku obliczeniowym procesora GPU.

Środowiska Pythona w bezserwerowych obliczeniach z użyciem procesorów GPU

Usługa Databricks udostępnia dwa środowiska zarządzane do obsługi różnych przypadków użycia.

Uwaga / Notatka

Niestandardowe środowiska bazowe nie są obsługiwane w przypadku bezserwerowych obliczeń GPU. Zamiast tego użyj środowiska domyślnego lub sztucznej inteligencji i określ dodatkowe zależności bezpośrednio w panelu bocznym Środowiska lub pip install w nich.

Domyślne środowisko podstawowe

Zapewnia to minimalne środowisko ze stabilnym interfejsem API klienta w celu zapewnienia zgodności aplikacji. Instalowane są tylko wymagane pakiety języka Python. Dzięki temu usługa Databricks może niezależnie uaktualnić serwer, zapewniając ulepszenia wydajności, ulepszenia zabezpieczeń i poprawki błędów bez konieczności wprowadzania zmian kodu w obciążeniach. Jest to środowisko domyślne podczas wybierania bezserwerowych obliczeń procesora GPU. Wybierz to środowisko, jeśli chcesz w pełni dostosować środowisko na potrzeby trenowania.

Aby uzyskać więcej informacji na temat wersji pakietów zainstalowanych w różnych wersjach, zobacz notatki o wydaniu:

Środowisko sztucznej inteligencji

Środowisko sztucznej inteligencji usługi Databricks jest dostępne w bezserwerowym środowisku procesora GPU 4. Środowisko sztucznej inteligencji jest oparte na domyślnym środowisku podstawowym z typowymi pakietami środowiska uruchomieniowego i pakietami specyficznymi dla uczenia maszynowego na procesorach GPU. Zawiera on popularne biblioteki uczenia maszynowego, w tym PyTorch, LangChain, Transformers, Ray i XGBoost na potrzeby trenowania i wnioskowania modeli. Wybierz to środowisko do uruchamiania zadań treningowych.

Aby uzyskać więcej informacji na temat wersji pakietów zainstalowanych w różnych wersjach, zobacz notatki o wydaniu:

Usługa Databricks zaleca bezserwerowe przetwarzanie obliczeniowe GPU dla każdego przypadku użycia trenowania modeli, które wymagają dostosowań i użycia GPU.

Przykład:

  • Dostrajanie LLM
  • Wizja komputerowa
  • Systemy rekomendacji
  • Uczenie przez wzmacnianie
  • Prognozowanie szeregów czasowych opartych na uczeniu głębokim

Wymagania

  • Obszar roboczy w jednym z następujących regionów obsługiwanych przez platformę Azure:
    • eastus
    • eastus2
    • centralus
    • northcentralus
    • westcentralus
    • westus

Konfigurowanie bezserwerowych obliczeń procesora GPU

Aby połączyć notes z obliczeniami bezserwerowego procesora GPU i skonfigurować środowisko:

  1. W notesie kliknij menu rozwijane Połącz u góry i wybierz pozycję Bezserwerowy procesor GPU.
  2. Kliknij ikonę Środowisko. Aby otworzyć panel boczny Środowisko .
  3. Wybierz pozycję A10 z pola Akcelerator .
  4. Wybierz pozycję Brak dla środowiska domyślnego lub AI w wersji 4 dla środowiska sztucznej inteligencji w polu Środowisko podstawowe .
  5. W przypadku wybrania opcji Brak w polu Środowisko podstawowe wybierz wersję środowiska.
  6. Kliknij przycisk Zastosuj , a następnie potwierdź , że chcesz zastosować bezserwerowe obliczenia procesora GPU do środowiska notesu.

Uwaga / Notatka

Połączenie z usługą obliczeniową automatycznie kończy się po 60 minutach braku aktywności.

Dodawanie bibliotek do środowiska

Dodatkowe biblioteki można zainstalować w środowisku obliczeniowym bezserwerowego procesora GPU. Zobacz Dodawanie zależności do notesu.

Uwaga / Notatka

Dodawanie zależności przy użyciu panelu Środowiska, jak pokazano w sekcji Dodawanie zależności do notesu, nie jest obsługiwane w przypadku zaplanowanych zadań obliczeniowych bezserwerowych procesorów GPU.

Tworzenie i planowanie zadania

W poniższych krokach pokazano, jak tworzyć i planować zadania dla bezserwerowych obciążeń obliczeniowych procesora GPU. Aby uzyskać więcej informacji, zobacz Tworzenie zaplanowanych zadań notesu i zarządzanie nimi .

Po otwarciu notesu, którego chcesz użyć:

  1. Wybierz przycisk Harmonogram w prawym górnym rogu.
  2. Wybierz pozycję Dodaj harmonogram.
  3. Wypełnij formularz Nowy harmonogramnazwą zadania, harmonogramem i obliczeniami.
  4. Wybierz Utwórz.

Można również tworzyć i planować zadania z poziomu interfejsu użytkownika zadań i potoków . Zobacz Tworzenie nowego zadania , aby uzyskać szczegółowe wskazówki.

Trenowanie rozproszone

Zobacz Trenowanie rozproszone.

Ograniczenia

  • Bezserwerowe obliczenia procesora GPU obsługują tylko akceleratory A10.
  • Usługa Private Link nie jest obsługiwana. Magazyny lub repozytoria pip za usługą Private Link nie są obsługiwane.
  • Przetwarzanie bezserwerowe procesora GPU nie jest obsługiwane w przypadku obszarów roboczych profilu zabezpieczeń zgodności (takich jak HIPAA lub PCI). Przetwarzanie danych regulowanych nie jest obecnie obsługiwane.
  • W przypadku zaplanowanych zadań na bezserwerowej komputacji GPU funkcja automatycznego odzyskiwania dla niekompatybilnych wersji pakietów skorelowanych z notesem nie jest obsługiwana.
  • Maksymalny czas wykonywania obciążenia wynosi siedem dni. W przypadku zadań trenowania modelu przekraczających ten limit należy zaimplementować checkpointy i ponownie uruchomić zadanie po osiągnięciu maksymalnego czasu wykonywania.

Najlepsze rozwiązania

Zobacz Najlepsze rozwiązania dotyczące przetwarzania bezserwerowego procesora GPU.

Rozwiązywanie problemów z przetwarzaniem bezserwerowego procesora GPU

Jeśli wystąpią problemy z uruchamianiem obciążeń na obliczeniach bezserwerowych procesorów GPU, zapoznaj się z przewodnikiem rozwiązywania typowych problemów, obejściami i zasobami pomocy technicznej.

Przykłady notatników

Poniżej przedstawiono różne przykłady notatników, które pokazują, jak używać bezserwerowej mocy obliczeniowej GPU do różnych zadań.

Zadanie Description
Duże modele językowe (LLMs) Przykłady dostrajania dużych modeli językowych, w tym metod wydajnych parametrów, takich jak Low-Rank Adaptacja (LoRA) i nadzorowane podejścia do dostrajania.
Przetwarzanie obrazów Przykłady zadań przetwarzania obrazów, w tym wykrywania obiektów i klasyfikacji obrazów.
Systemy rekomendacji oparte na uczeniu głębokim Przykłady tworzenia systemów rekomendacji przy użyciu nowoczesnych metod uczenia głębokiego, takich jak modele dwóch wież.
Klasyczne uczenie maszynowe Przykłady tradycyjnych zadań uczenia maszynowego, w tym trenowania modelu XGBoost i prognozowania szeregów czasowych.
Szkolenie rozproszone z wykorzystaniem wielu GPU i wielu węzłów Przykłady skalowania szkolenia na wielu GPU i węzłach przy użyciu bezserwerowego interfejsu API GPU, w tym rozproszone dostrajanie.

Przykłady trenowania z wieloma procesorami GPU

Zobacz Trenowanie rozproszone z wieloma procesorami GPU i wieloma węzłami , aby zapoznać się z notesami, które pokazują, jak używać różnych rozproszonych bibliotek szkoleniowych na potrzeby trenowania z wieloma procesorami GPU.