Not
Åtkomst till denna sida kräver auktorisation. Du kan prova att logga in eller byta katalog.
Åtkomst till denna sida kräver auktorisation. Du kan prova att byta katalog.
Dessa funktioner och förbättringar av Azure Databricks-plattformen släpptes i maj 2021.
Anteckning
Utgåvor släpps stegvis. Ditt Azure Databricks-konto kanske inte uppdateras förrän en vecka eller mer efter det första lanseringsdatumet.
Databricks Mosaic AI: en databaserad och samarbetslösning för hela ML-livscykeln
27 maj 2021
Den nya Machine Learning-persona, som kan väljas i sidofältet i Azure Databricks-användargränssnittet, ger dig enkel åtkomst till en ny specialbyggd miljö för ML, inklusive modellregistret och fyra nya funktioner i offentlig förhandsversion:
- En ny instrumentpanelssida med praktiska resurser, senaste och komma igång-länkar.
- En ny experimentsida som centraliserar identifiering och hantering av experiment.
- AutoML, ett sätt att automatiskt generera ML-modeller från data och påskynda vägen till produktion.
- Feature Store, ett sätt att katalogisera ML-funktioner och göra dem tillgängliga för träning och servering, vilket ökar återanvändning. Med en databaserad funktionssökning som utnyttjar automatiskt loggade datakällor kan du göra funktioner tillgängliga för träning och servering med förenklad modelldistribution som inte kräver ändringar i klientprogrammet.
Mer information finns i AI och maskininlärning på Databricks.
SQL Analytics har bytt namn till Databricks SQL
27 maj 2021
SQL Analytics har bytt namn till Databricks SQL. Mer information finns i viktig information om Databricks SQL.
Skapa och hantera ETL-pipelines med DLT (offentlig förhandsversion)
26 maj 2021
Databricks är glada över att kunna introducera DLT, en molntjänst som gör ETL-utveckling (extrahering, transformering och belastning) enkel, tillförlitlig och skalbar. DLT:
- Tillhandahåller ett intuitivt och välbekant deklarativt gränssnitt för att skapa pipelines.
- Gör att du kan övervaka pipelines för databearbetning, visualisera beroenden och hantera pipelines och beroenden i olika miljöer.
- Möjliggör testdriven utveckling, säkerställande av datakvalitetsbegränsningar och tillämpning av enhetliga policyer för hantering av datafel
- Automatiserar distributionen av dina databehandlingspipelines så att du enkelt kan uppgradera, återställa och bearbeta data stegvis.
Se Lakeflow Spark deklarativa pipeliner för detaljer.
Virtuella Azure Spot-datorer är allmänt tillgängliga
Den 24 maj 2021
Möjligheten att skapa Azure Databricks-kluster med Virtuella Azure Spot-datorer är nu allmänt tillgänglig. Nu kan du dra nytta av betydligt billigare Azure Spot-instanser och minska din totala ägandekostnad (TCO) för Azure Databricks. Du kan välja att använda Azure Spot-instanser när du:
- Använd användargränssnittet för att skapa ett kluster och markera kryssrutan Spot instances (Oanvända instanser).
- Använd API:et för att skapa ett kluster och ange
azure_attributesfältet i klusterattributen för begäran. - Använd användargränssnittet för att skapa en instanspool, och välj alternativet All Spot-instans.
- Använd API:et för att skapa en instanspool och ange
azure_attributesfältet i begäran om att skapa instanspoolen.
Kryptera Databricks SQL-frågor och frågehistorik med din egen nyckel (offentlig förhandsversion)
Den 20 maj 2021
Mer information finns i Databricks SQL versionsanteckningar.
Ökad gräns för antalet avslutade kluster för alla syften
18 maj 2021: Version 3.46
Nu kan du ha upp till 150 avslutade kluster för alla syften på en Azure Databricks-arbetsyta. Tidigare var gränsen 120. Mer information finns i Avsluta en beräkning. Gränsen för antalet avslutade allmänna kluster som returneras av begäran av Klusters API är också nu 150.
Ökad gräns för antalet fästa kluster
18 maj 2021: Version 3.46
Nu kan du ha upp till 70 fästa kluster på en Azure Databricks-arbetsyta. Tidigare var gränsen 50. Mer information finns i Fästa en beräkning
Hantera var notebook-resultat lagras (offentlig förhandsversion)
18 maj 2021: Version 3.46
Nu kan du välja att lagra alla notebook-resultat i din Azure Storage-rotinstans oavsett storlek eller körningstyp. Som standard lagras vissa resultat för interaktiva notebook-filer i Azure Databricks. Med en ny konfiguration kan du lagra dessa i azure storage-rotinstansen på ditt eget konto. Mer information finns i Konfigurera lagringsplats för notebook-resultat.
Den här funktionen påverkar inte notebooks som körs som jobb, vars resultat alltid lagras i Azure Storage-rotinstansen.
Kryptera notebook-filer och hemliga data i kontrollplanet med din egen nyckel (offentlig förhandsversion)
Den 10 maj 2021
En Azure Databricks-arbetsyta består av ett kontrollplan som finns i en Azure Databricks-hanterad prenumeration och ett beräkningsplan som distribueras i din Azure-prenumeration. Kontrollplanet lagrar dina data för hanterade tjänster, som innehåller notebook-kommandon, hemligheter och andra konfigurationsdata för arbetsytan. Som standard krypteras dessa data med en Azure Databricks-hanterad nyckel, men du kan nu lägga till en nyckel från din Azure Key Vault-instans för att kryptera dessa data. Se Aktivera kundhanterade nycklar för hanterade tjänster.
Stöd för Databricks Runtime 7.4-serien upphör
Den 3 maj 2021
Stöd för Databricks Runtime 7.4, Databricks Runtime 7.4 för Machine Learning och Databricks Runtime 7.4 för Genomics upphörde den 3 maj. Se Supportlivscykler för Databricks.
Lagringsplatser kan nu integreras med Azure DevOps med hjälp av personliga åtkomsttoken
3–10 maj 2021: Version 3.45
Förutom Åtkomsttoken för Microsoft Entra-ID kan du nu använda en personlig åtkomsttoken för att autentisera med Azure DevOps. Mer information finns i Konfigurera Databricks Git-mappar.