Czerwiec 2022

Te funkcje i ulepszenia platformy Azure Databricks zostały wydane w czerwcu 2022 r.

Uwaga

Wydania są etapowe. Twoje konto usługi Azure Databricks może nie zostać zaktualizowane do tygodnia lub więcej po początkowej dacie wydania.

ALTER TABLE zmiany uprawnień dla wykazu aparatu Unity

30 czerwca 2022 r.

W wykazie aparatu Unity wprowadzono aktualizację uprawnień wymaganych do uruchamiania ALTER TABLE instrukcji. OWNERSHIP Wcześniej do uruchomienia wszystkich ALTER TABLE instrukcji była wymagana tabela. Teraz OWNERSHIP w tabeli jest wymagany tylko do zmiany właściciela, udzielania uprawnień w tabeli, zmiany nazwy tabeli i modyfikowania definicji widoku. W przypadku wszystkich innych operacji metadanych w tabeli (na przykład aktualizowanie komentarzy, właściwości lub kolumn) można wprowadzić aktualizacje, jeśli masz MODIFY uprawnienia do tabeli.

Zobacz ALTER TABLE i ALTER TABLE.

Wsparcie dodatkowe środowiska Databricks Runtime 6.4 kończy się

30 czerwca 2022 r.

Wsparcie dodatkowe dla środowiska Databricks Runtime 6.4 zakończyło się 30 czerwca. Zobacz Cykle życia pomocy technicznej środowiska uruchomieniowego usługi Databricks.

Zakończenie obsługi środowiska Databricks Runtime 10.2

22 czerwca 2022 r.

Obsługa środowisk Databricks Runtime 10.2 i Databricks Runtime 10.2 dla maszyny Edukacja zakończona 22 czerwca. Zobacz Cykle życia pomocy technicznej środowiska uruchomieniowego usługi Databricks.

Sterownik ODBC usługi Databricks 2.6.24

22 czerwca 2022 r.

Wydaliśmy wersję 2.6.24 sterownika Databricks ODBC (pobierz). Ta wersja dodaje obsługę konfigurowania tłumaczenia zapytań do składni CTAS, umożliwia użytkownikom zastępowanie SQL_ATTR_QUERY_TIMEOUT w łączniku i aktualizowanie biblioteki OpenSSL.

Ta wersja rozwiązuje również następujące problemy:

  • Łącznik nie zezwala na używanie serwerów i certyfikatów pośrednich, które nie mają wpisu punktów dystrybucji listy CRL (CDP).
  • W przypadku korzystania z serwera proxy łącznik ustawia nieprawidłową nazwę hosta dla wskazania nazwy serwera SSL (SNI).

Dostawca narzędzia Terraform usługi Databricks jest teraz ogólnie dostępny

22 czerwca 2022 r.

Dostawca narzędzia Terraform usługi Databricks jest teraz ogólnie dostępny.

Narzędzie Terraform umożliwia pełne zautomatyzowanie wdrażania platform danych przy użyciu istniejących procesów infrastruktury jako kodu (IaC) programu Terraform.

Za pomocą dostawcy narzędzia Terraform usługi Databricks można zdefiniować zasoby w obszarach roboczych usługi Azure Databricks, takich jak klastry i zadania, oraz wymusić kontrolę dostępu za pomocą uprawnień dla użytkowników, grup i jednostek usługi.

Dostawca narzędzia Terraform usługi Databricks udostępnia pełny dziennik inspekcji wdrożeń. Możesz użyć dostawcy narzędzia Terraform usługi Databricks jako szkieletu dla strategii odzyskiwania po awarii i ciągłości działania.

Dostawca narzędzia Terraform usługi Databricks obsługuje również wykaz aparatu Unity (wersja zapoznawcza), co umożliwia łatwe i łatwe wdrażanie tej funkcji zapewniania ładu.

Databricks Runtime 11.0 i 11.0 ML są ogólnie dostępne; 11.0 Photon to publiczna wersja zapoznawcza

16 czerwca 2022 r.

Środowiska Databricks Runtime 11.0 i Databricks Runtime 11.0 ML są teraz ogólnie dostępne. Databricks Runtime 11.0 Photon jest w publicznej wersji zapoznawczej.

Zobacz Databricks Runtime 11.0 (nieobsługiwane) i Databricks Runtime 11.0 for Machine Edukacja (nieobsługiwane).

Zmień na Domyślny katalog roboczy repozytoriów w środowisku Databricks Runtime 11.0

16 czerwca 2022 r.

Katalog roboczy języka Python dla notesów w repozytorium jest domyślny dla katalogu zawierającego notesy. Na przykład zamiast /databricks/driver, domyślny katalog roboczy to /Workspace/Repos/<user>/<repo>/<path-to-notebook>. Umożliwia to importowanie i odczytywanie z plików w repozytoriach domyślnie działa w klastrach środowiska Databricks Runtime 11.0.

Oznacza to również, że zapisywanie w bieżącym katalogu roboczym kończy się niepowodzeniem z komunikatem Read-only filesystem o błędzie. Jeśli chcesz kontynuować zapisywanie w lokalnym systemie plików klastra, zapisz plik w /tmp/<filename> lokalizacji lub /databricks/driver/<filename>.

Zakończenie obsługi środowiska Databricks Runtime 10.1

14 czerwca 2022 r.

Obsługa środowisk Databricks Runtime 10.1 i Databricks Runtime 10.1 dla maszyny Edukacja została zakończona 14 czerwca. Zobacz Cykle życia pomocy technicznej środowiska uruchomieniowego usługi Databricks.

Funkcja Delta Live Tables obsługuje teraz typ SCD 2

13-21 czerwca 2022 r.: Wersja 3.74

Potoki delta Live Tables mogą teraz używać protokołu SCD typu 2 do przechwytywania zmian danych źródłowych i zachowywania pełnej historii aktualizacji rekordów. Zwiększa to obsługę istniejących tabel delta Live Tables dla typu SCD 1. Zobacz Stosowanie zmian interfejsu API: upraszczanie przechwytywania danych zmian w tabelach delta live.

Tworzenie potoków usługi Delta Live Tables bezpośrednio w interfejsie użytkownika usługi Azure Databricks

13-21 czerwca 2022 r.: Wersja 3.74

Teraz możesz utworzyć potok Delta Live Tables z menu Utwórz na pasku bocznym interfejsu użytkownika usługi Azure Databricks.

Wybierz kanał Delta Live Tables podczas tworzenia lub edytowania potoku

13-21 czerwca 2022 r.: Wersja 3.74

Teraz możesz skonfigurować kanał dla potoku Delta Live Tables za pomocą okna dialogowego Tworzenie potoku i Edytowanie ustawień potoku. Wcześniej skonfigurowanie kanału wymagało edytowania ustawień w konfiguracji JSON potoku.

Komunikacja między zadaniami w zadaniach usługi Azure Databricks przy użyciu wartości zadań

13 czerwca 2022 r.

Teraz można komunikować wartości między zadaniami w zadaniach usługi Azure Databricks przy użyciu wartości zadań. Można na przykład użyć wartości zadań, aby przekazać dane wyjściowe modelu uczenia maszynowego do podrzędnych zadań podrzędnych w tym samym uruchomieniu zadania. Zobacz podutility taskValues (dbutils.jobs.taskValues).

Włączanie przełączania konta w interfejsie użytkownika usługi Databricks

8 czerwca 2022 r.

Jeśli użytkownicy należą do więcej niż jednego konta, mogą teraz przełączać się między kontami w interfejsie użytkownika usługi Databricks. Aby użyć przełącznika kont, kliknij swój adres e-mail w górnej części interfejsu użytkownika usługi Databricks, a następnie umieść kursor na pozycji Przełącz konto. Następnie wybierz konto, do którego chcesz przejść.