Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zalogować się lub zmienić katalogi.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Ważne
Ta funkcja jest dostępna w wersji beta.
W tym artykule opisano bezserwerowe obliczenia procesora GPU w usłudze Databricks i przedstawiono zalecane przypadki użycia, wskazówki dotyczące konfigurowania zasobów obliczeniowych procesora GPU i ograniczeń funkcji.
Co to jest przetwarzanie bezserwerowe procesora GPU?
Przetwarzanie bezserwerowe procesora GPU jest częścią oferty obliczeniowej bezserwerowej. Bezserwerowe obliczenia procesora GPU są przeznaczone dla niestandardowych obciążeń uczenia głębokiego z jednym i wieloma węzłami. Możesz użyć bezserwerowej mocy obliczeniowej GPU do trenowania i dostosowywania modeli niestandardowych przy użyciu ulubionych frameworków i uzyskać najnowocześniejszą efektywność, wydajność oraz jakość.
Bezserwerowe obliczenia procesora GPU obejmują:
- Zintegrowane środowisko zeszytów, katalogu Unity i biblioteki MLflow: Możesz interaktywnie rozwijać swój kod za pomocą zeszytów.
- Akceleratory procesora GPU A10:A10 gpu zostały zaprojektowane w celu przyspieszenia małych i średnich obciążeń uczenia maszynowego i uczenia głębokiego, w tym klasycznych modeli uczenia maszynowego i dostrajania mniejszych modeli językowych. A10s są dobrze dostosowane do zadań z umiarkowanymi wymaganiami obliczeniowymi.
- Obsługa wielu GPU i wielu węzłów: Można uruchamiać rozproszone obciążenia treningowe na wielu GPU i wielu węzłach, korzystając z bezserwerowego interfejsu API języka Python dla GPU. Zobacz Trenowanie rozproszone.
Wstępnie zainstalowane pakiety w obliczeniach bezserwerowych procesorów GPU nie zastępują usługi Databricks Runtime ML. Chociaż istnieją typowe pakiety, nie wszystkie zależności i biblioteki uczenia maszynowego środowiska Databricks Runtime są odzwierciedlane w bezserwerowym środowisku obliczeniowym procesora GPU.
Środowiska Pythona w bezserwerowych obliczeniach z użyciem procesorów GPU
Usługa Databricks udostępnia dwa środowiska zarządzane do obsługi różnych przypadków użycia.
Uwaga / Notatka
Niestandardowe środowiska bazowe nie są obsługiwane w przypadku bezserwerowych obliczeń GPU. Zamiast tego użyj środowiska domyślnego lub sztucznej inteligencji i określ dodatkowe zależności bezpośrednio w panelu bocznym Środowiska lub pip install w nich.
Domyślne środowisko podstawowe
Zapewnia to minimalne środowisko ze stabilnym interfejsem API klienta w celu zapewnienia zgodności aplikacji. Instalowane są tylko wymagane pakiety języka Python. Dzięki temu usługa Databricks może niezależnie uaktualnić serwer, zapewniając ulepszenia wydajności, ulepszenia zabezpieczeń i poprawki błędów bez konieczności wprowadzania zmian kodu w obciążeniach. Jest to środowisko domyślne podczas wybierania bezserwerowych obliczeń procesora GPU. Wybierz to środowisko, jeśli chcesz w pełni dostosować środowisko na potrzeby trenowania.
Aby uzyskać więcej informacji na temat wersji pakietów zainstalowanych w różnych wersjach, zobacz notatki o wydaniu:
Środowisko sztucznej inteligencji
Środowisko sztucznej inteligencji usługi Databricks jest dostępne w bezserwerowym środowisku procesora GPU 4. Środowisko sztucznej inteligencji jest oparte na domyślnym środowisku podstawowym z typowymi pakietami środowiska uruchomieniowego i pakietami specyficznymi dla uczenia maszynowego na procesorach GPU. Zawiera on popularne biblioteki uczenia maszynowego, w tym PyTorch, LangChain, Transformers, Ray i XGBoost na potrzeby trenowania i wnioskowania modeli. Wybierz to środowisko do uruchamiania zadań treningowych.
Aby uzyskać więcej informacji na temat wersji pakietów zainstalowanych w różnych wersjach, zobacz notatki o wydaniu:
Zalecane przypadki użycia
Usługa Databricks zaleca bezserwerowe przetwarzanie obliczeniowe GPU dla każdego przypadku użycia trenowania modeli, które wymagają dostosowań i użycia GPU.
Przykład:
- Dostrajanie LLM
- Wizja komputerowa
- Systemy rekomendacji
- Uczenie przez wzmacnianie
- Prognozowanie szeregów czasowych opartych na uczeniu głębokim
Wymagania
- Obszar roboczy w jednym z następujących regionów obsługiwanych przez platformę Azure:
eastuseastus2centralusnorthcentraluswestcentraluswestus
Konfigurowanie bezserwerowych obliczeń procesora GPU
Aby połączyć notes z obliczeniami bezserwerowego procesora GPU i skonfigurować środowisko:
- W notesie kliknij menu rozwijane Połącz u góry i wybierz pozycję Bezserwerowy procesor GPU.
- Kliknij
Aby otworzyć panel boczny Środowisko .
- Wybierz pozycję A10 z pola Akcelerator .
- Wybierz pozycję Brak dla środowiska domyślnego lub AI w wersji 4 dla środowiska sztucznej inteligencji w polu Środowisko podstawowe .
- W przypadku wybrania opcji Brak w polu Środowisko podstawowe wybierz wersję środowiska.
- Kliknij przycisk Zastosuj , a następnie potwierdź , że chcesz zastosować bezserwerowe obliczenia procesora GPU do środowiska notesu.
Uwaga / Notatka
Połączenie z usługą obliczeniową automatycznie kończy się po 60 minutach braku aktywności.
Dodawanie bibliotek do środowiska
Dodatkowe biblioteki można zainstalować w środowisku obliczeniowym bezserwerowego procesora GPU. Zobacz Dodawanie zależności do notesu.
Uwaga / Notatka
Dodawanie zależności przy użyciu panelu Środowiska, jak pokazano w sekcji Dodawanie zależności do notesu, nie jest obsługiwane w przypadku zaplanowanych zadań obliczeniowych bezserwerowych procesorów GPU.
Tworzenie i planowanie zadania
W poniższych krokach pokazano, jak tworzyć i planować zadania dla bezserwerowych obciążeń obliczeniowych procesora GPU. Aby uzyskać więcej informacji, zobacz Tworzenie zaplanowanych zadań notesu i zarządzanie nimi .
Po otwarciu notesu, którego chcesz użyć:
- Wybierz przycisk Harmonogram w prawym górnym rogu.
- Wybierz pozycję Dodaj harmonogram.
- Wypełnij formularz Nowy harmonogramnazwą zadania, harmonogramem i obliczeniami.
- Wybierz Utwórz.
Można również tworzyć i planować zadania z poziomu interfejsu użytkownika zadań i potoków . Zobacz Tworzenie nowego zadania , aby uzyskać szczegółowe wskazówki.
Trenowanie rozproszone
Zobacz Trenowanie rozproszone.
Ograniczenia
- Bezserwerowe obliczenia procesora GPU obsługują tylko akceleratory A10.
- Usługa Private Link nie jest obsługiwana. Magazyny lub repozytoria pip za usługą Private Link nie są obsługiwane.
- Przetwarzanie bezserwerowe procesora GPU nie jest obsługiwane w przypadku obszarów roboczych profilu zabezpieczeń zgodności (takich jak HIPAA lub PCI). Przetwarzanie danych regulowanych nie jest obecnie obsługiwane.
- W przypadku zaplanowanych zadań na bezserwerowej komputacji GPU funkcja automatycznego odzyskiwania dla niekompatybilnych wersji pakietów skorelowanych z notesem nie jest obsługiwana.
- Maksymalny czas wykonywania obciążenia wynosi siedem dni. W przypadku zadań trenowania modelu przekraczających ten limit należy zaimplementować checkpointy i ponownie uruchomić zadanie po osiągnięciu maksymalnego czasu wykonywania.
Najlepsze rozwiązania
Zobacz Najlepsze rozwiązania dotyczące przetwarzania bezserwerowego procesora GPU.
Rozwiązywanie problemów z przetwarzaniem bezserwerowego procesora GPU
Jeśli wystąpią problemy z uruchamianiem obciążeń na obliczeniach bezserwerowych procesorów GPU, zapoznaj się z przewodnikiem rozwiązywania typowych problemów, obejściami i zasobami pomocy technicznej.
Przykłady notatników
Poniżej przedstawiono różne przykłady notatników, które pokazują, jak używać bezserwerowej mocy obliczeniowej GPU do różnych zadań.
| Zadanie | Description |
|---|---|
| Duże modele językowe (LLMs) | Przykłady dostrajania dużych modeli językowych, w tym metod wydajnych parametrów, takich jak Low-Rank Adaptacja (LoRA) i nadzorowane podejścia do dostrajania. |
| Przetwarzanie obrazów | Przykłady zadań przetwarzania obrazów, w tym wykrywania obiektów i klasyfikacji obrazów. |
| Systemy rekomendacji oparte na uczeniu głębokim | Przykłady tworzenia systemów rekomendacji przy użyciu nowoczesnych metod uczenia głębokiego, takich jak modele dwóch wież. |
| Klasyczne uczenie maszynowe | Przykłady tradycyjnych zadań uczenia maszynowego, w tym trenowania modelu XGBoost i prognozowania szeregów czasowych. |
| Szkolenie rozproszone z wykorzystaniem wielu GPU i wielu węzłów | Przykłady skalowania szkolenia na wielu GPU i węzłach przy użyciu bezserwerowego interfejsu API GPU, w tym rozproszone dostrajanie. |
Przykłady trenowania z wieloma procesorami GPU
Zobacz Trenowanie rozproszone z wieloma procesorami GPU i wieloma węzłami , aby zapoznać się z notesami, które pokazują, jak używać różnych rozproszonych bibliotek szkoleniowych na potrzeby trenowania z wieloma procesorami GPU.