Uwaga
Dostęp do tej strony wymaga autoryzacji. Może spróbować zalogować się lub zmienić katalogi.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Pakiety zasobów usługi Databricks, znane również po prostu jako pakiety, zawierają artefakty, które chcesz wdrożyć, oraz ustawienia zasobów usługi Azure Databricks, takich jak zadania, które chcesz uruchomić, i umożliwiają programowe weryfikowanie, wdrażanie i uruchamianie. Zobacz Co to są pakiety zasobów usługi Databricks?.
W tym artykule opisano sposób tworzenia pakietu w celu programowego zarządzania zadaniem. Zobacz Zadania lakeflow. Pakiet jest tworzony przy użyciu domyślnego szablonu pakietu zasobów usługi Databricks dla języka Python, który składa się z notesu sparowanego z definicją zadania do jego uruchomienia. Następnie należy zweryfikować, wdrożyć i uruchomić wdrożone zadanie w obszarze roboczym usługi Azure Databricks.
Wskazówka
Jeśli masz istniejące zadania utworzone przy użyciu interfejsu użytkownika lub interfejsu API usługi Lakeflow Jobs, które chcesz przenieść do pakietów, musisz zdefiniować je w plikach konfiguracji pakietu. Usługa Databricks zaleca najpierw utworzenie pakietu, wykonując poniższe kroki, a następnie sprawdzenie, czy pakiet działa. Następnie możesz dodać do pakietu dodatkowe definicje zadań, notesy i inne źródła. Zobacz Pobieranie istniejącej definicji zadania przy użyciu interfejsu użytkownika.
Wymagania
- Interfejs CLI Databricks w wersji 0.218.0 lub nowszej. Aby sprawdzić zainstalowaną wersję Databricks CLI, uruchom polecenie
databricks -v
. Aby zainstalować interfejs wiersza polecenia usługi Databricks, zobacz Instalowanie lub aktualizowanie interfejsu wiersza polecenia usługi Databricks. - Zdalny obszar roboczy Databricks musi mieć włączoną obsługę plików obszaru roboczego. Zobacz artykuł Co to są pliki obszaru roboczego?.
Tworzenie pakietu przy użyciu szablonu projektu
Najpierw utwórz pakiet przy użyciu domyślnego szablonu języka Python pakietu zasobów usługi Databricks. Aby uzyskać więcej informacji na temat szablonów pakietów, zobacz Szablony projektów pakietu zasobów usługi Databricks.
Jeśli chcesz utworzyć pakiet od podstaw, zobacz Ręczne tworzenie pakietu.
Krok 1. Konfigurowanie uwierzytelniania
W tym kroku skonfigurujesz uwierzytelnianie między interfejsem wiersza polecenia usługi Databricks na komputerze deweloperskim a obszarem roboczym usługi Azure Databricks. W tym artykule założono, że chcesz użyć uwierzytelniania użytkownika do komputera (U2M) OAuth i odpowiedniego profilu konfiguracji usługi Azure Databricks o nazwie DEFAULT
na potrzeby uwierzytelniania.
Uwaga
Uwierzytelnianie U2M jest odpowiednie do wypróbowania tych kroków w czasie rzeczywistym. W przypadku w pełni zautomatyzowanych przepływów pracy usługa Databricks zaleca zamiast tego użycie uwierzytelniania maszynowego do maszyny OAuth (M2M). Zobacz instrukcje dotyczące konfigurowania uwierzytelniania M2M w temacie Autoryzowanie nienadzorowanego dostępu do zasobów usługi Azure Databricks przy użyciu jednostki usługi przy użyciu protokołu OAuth.
Użyj CLI usługi Databricks, aby lokalnie zainicjować zarządzanie tokenami uwierzytelniania OAuth, uruchamiając następujące polecenie dla każdego docelowego obszaru roboczego.
W poniższym poleceniu zastąp
<workspace-url>
adresem URL usługi Azure Databricks na obszar roboczy, na przykładhttps://adb-1234567890123456.7.azuredatabricks.net
.databricks auth login --host <workspace-url>
Interfejs wiersza polecenia Databricks prosi o zapisanie wprowadzonych informacji jako profil konfiguracji Azure Databricks. Naciśnij
Enter
, aby zaakceptować sugerowaną nazwę profilu lub wprowadź nazwę nowego lub istniejącego profilu. Każdy istniejący profil o tej samej nazwie zostanie zastąpiony wprowadzonymi informacjami. Profile umożliwiają szybkie przełączanie kontekstu uwierzytelniania między wieloma obszarami roboczymi.Aby uzyskać listę wszystkich istniejących profilów, w osobnym terminalu lub wierszu polecenia użyj interfejsu wiersza polecenia usługi Databricks, aby uruchomić polecenie
databricks auth profiles
. Aby wyświetlić istniejące ustawienia określonego profilu, uruchom poleceniedatabricks auth env --profile <profile-name>
.W przeglądarce internetowej wykonaj instrukcje na ekranie, aby zalogować się do obszaru roboczego usługi Azure Databricks.
Aby wyświetlić bieżącą wartość tokenu OAuth profilu i zbliżający się znacznik czasu wygaśnięcia tokenu, uruchom jedno z następujących poleceń:
databricks auth token --host <workspace-url>
databricks auth token -p <profile-name>
databricks auth token --host <workspace-url> -p <profile-name>
Jeśli masz wiele profilów o tej samej wartości
--host
, może być konieczne jednoczesne określenie opcji--host
i-p
, aby pomóc interfejsowi CLI usługi Databricks w znalezieniu prawidłowych informacji pasujących do tokenu OAuth.
Krok 2. Inicjowanie pakietu
Zainicjuj pakiet przy użyciu domyślnego szablonu projektu pakietu języka Python.
Uwaga
Domyślny szablon Pythona wymaga, aby uv
był zainstalowany. Zobacz Instalowanie uv.
Użyj terminalu lub wiersza polecenia, aby przełączyć się do katalogu na lokalnej maszynie deweloperskiej, która będzie zawierać wygenerowany pakiet szablonu.
Użyj CLI usługi Databricks, aby uruchomić polecenie
bundle init
.databricks bundle init
Dla pola
Template to use
, pozostaw wartość domyślnądefault-python
przez naciśnięcieEnter
.W polu
Unique name for this project
pozostaw wartośćmy_project
domyślną , lub wpisz inną wartość, a następnie naciśnijEnter
. Określa nazwę katalogu głównego dla tego pakietu. Ten katalog główny jest tworzony w bieżącym katalogu roboczym.W przypadku
Include a stub (sample) notebook
wybierz pozycjęyes
i naciśnijEnter
.W przypadku
Include a stub (sample) Delta Live Tables pipeline
wybierz pozycjęno
i naciśnijEnter
. Powoduje to, że interfejs wiersza polecenia usługi Databricks nie definiuje przykładowego potoku ETL w pakiecie.W przypadku
Include a stub (sample) Python package
wybierz pozycjęno
i naciśnijEnter
. Instrukcja ta powoduje, że interfejs wiersza polecenia Databricks nie dodaje przykładowych plików pakietu wheel języka Python ani powiązanych instrukcji kompilacji do pakietu.W przypadku
Use serverless
wybierz pozycjęyes
i naciśnijEnter
. Spowoduje to, że interfejs wiersza polecenia usługi Databricks skonfiguruje pakiet do uruchamiania na bezserwerowych obliczeniach.
Krok 3. Eksplorowanie pakietu
Aby wyświetlić pliki wygenerowane przez szablon, przejdź do katalogu głównego nowo utworzonego pakietu. Pliki o szczególnym znaczeniu obejmują następujące elementy:
-
databricks.yml
: Ten plik określa nazwę programową pakietu, zawiera odwołanie do definicji zadania i określa ustawienia docelowego obszaru roboczego. -
resources/<project-name>_job.yml
: ten plik określa ustawienia zadania, w tym domyślne zadanie notesu. -
src/notebook.ipynb
: Ten plik jest przykładowym notesem, który po uruchomieniu po prostu inicjuje RDD zawierający liczby od 1 do 10.
W przypadku dostosowywania zadań, mapowania w deklaracji zadania odpowiadają ładunkowi żądania, wyrażonemu w formacie YAML. Odnosi się to do operacji tworzenia zadania, zgodnie z opisem w dokumencie POST /api/2.1/jobs/create w dokumentacji referencyjnej REST API.
Wskazówka
Możesz definiować, łączyć i zastępować ustawienia dla nowych klastrów zadań w pakietach, używając technik opisanych w dokumencie Zastępowanie ustawień klastra w pakietach zasobów usługi Databricks.
Krok 4. Weryfikowanie pliku konfiguracji pakietu projektu
W tym kroku sprawdzisz, czy konfiguracja pakietu jest prawidłowa.
Z katalogu głównego użyj Databricks CLI, aby uruchomić polecenie
bundle validate
w następujący sposób:databricks bundle validate
Jeśli zostanie zwrócone podsumowanie konfiguracji pakietu, walidacja zakończyła się pomyślnie. Jeśli zostaną zwrócone jakiekolwiek błędy, napraw błędy, a następnie powtórz ten krok.
Jeśli po tym kroku wprowadzisz jakiekolwiek zmiany w pakiecie, należy powtórzyć ten krok, aby sprawdzić, czy konfiguracja pakietu jest nadal prawidłowa.
Krok 5. Wdrażanie projektu lokalnego w zdalnym obszarze roboczym
W tym kroku wdrożysz notes lokalny w zdalnym obszarze roboczym usługi Azure Databricks i utworzysz zadanie usługi Azure Databricks w obszarze roboczym.
W katalogu głównym pakietu użyj interfejsu wiersza poleceń Databricks, aby uruchomić polecenie
bundle deploy
w następujący sposób:databricks bundle deploy -t dev
Sprawdź, czy notes lokalny został wdrożony: na pasku bocznym obszaru roboczego usługi Azure Databricks kliknij pozycję Obszar roboczy.
Kliknij w folder Users >
<your-username>
> .bundle ><project-name>
> dev > files > src. Notatnik powinien znajdować się w tym folderze.Sprawdź, czy zadanie zostało utworzone: kliknij pozycję Zadania i potoki na pasku bocznym obszaru roboczego usługi Azure Databricks.
Na karcie Zadania i potoki zadań kliknij pozycję [dev
<your-username>
]<project-name>_job
.Jeśli lista jest długa, możesz filtrować, wybierając Zadania i Należące do mnie.
Kliknij kartę Zadania . Powinno istnieć jedno zadanie: notebook_task.
Jeśli po tym kroku wprowadzisz jakiekolwiek zmiany w pakiecie, powtórz kroki od 4 do 5, aby sprawdzić, czy konfiguracja pakietu jest nadal prawidłowa, a następnie ponownie wdrożyć projekt.
Krok 6. Uruchamianie wdrożonego projektu
W tym kroku uruchomisz zadanie w obszarze roboczym z poziomu wiersza polecenia.
Z katalogu głównego użyj Databricks CLI, aby uruchomić polecenie
bundle run
, w następujący sposób, zastępując<project-name>
nazwą projektu z kroku 2:databricks bundle run -t dev <project-name>_job
Skopiuj wartość
Run URL
wyświetlaną w terminalu i wklej tę wartość w przeglądarce internetowej, aby otworzyć obszar roboczy usługi Azure Databricks. Zobacz Wyświetlanie i uruchamianie zadania utworzonego za pomocą pakietów zasobów usługi DatabricksW obszarze roboczym usługi Azure Databricks, po pomyślnym zakończeniu zadania i wyświetleniu się zielonego paska tytułowego, kliknij zadanie, aby wyświetlić wyniki.
Jeśli po tym kroku wprowadzisz jakiekolwiek zmiany w pakiecie, powtórz kroki od 4 do 6, aby sprawdzić, czy konfiguracja pakietu jest nadal prawidłowa, ponownie wdrożyć projekt i uruchomić ponownie wdrożony projekt.
Krok 7. Czyszczenie
W tym kroku usuniesz wdrożony notes i zadanie z obszaru roboczego.
Z katalogu głównego użyj Databricks CLI, aby uruchomić polecenie
bundle destroy
w następujący sposób:databricks bundle destroy -t dev
Potwierdź żądanie usunięcia zadania: po wyświetleniu monitu o trwałe zniszczenie zasobów wpisz
y
i naciśnijEnter
.Potwierdź żądanie usunięcia notesu: po wyświetleniu monitu o trwałe zniszczenie wcześniej wdrożonego folderu i wszystkich jego plików wpisz
y
i naciśnijEnter
.Jeśli chcesz również usunąć pakiet z komputera dewelopera, możesz teraz usunąć katalog lokalny z kroku 2.