Delen via


Mei 2021

Deze functies en Azure Databricks-platformverbeteringen zijn uitgebracht in mei 2021.

Notitie

Releases worden in fasen uitgevoerd. Uw Azure Databricks-account wordt mogelijk pas een week of meer bijgewerkt na de eerste releasedatum.

Databricks Mosaic AI: een data-geïntegreerde en samenwerkingsgerichte oplossing voor de volledige ML-levenscyclus

27 mei 2021

De nieuwe Machine Learning-persona, die kan worden geselecteerd in de zijbalk van de Gebruikersinterface van Azure Databricks, biedt u eenvoudig toegang tot een nieuwe doelomgeving voor ML, waaronder het modelregister en vier nieuwe functies in openbare preview:

  • Een nieuwe dashboardpagina met handige resources, recente en aan de slag-koppelingen.
  • Een nieuwe experimentenpagina die experimentdetectie en -beheer centraliseert.
  • AutoML, een manier om automatisch ML-modellen te genereren op basis van gegevens en het pad naar productie te versnellen.
  • Feature Store, een manier om ML-functies te catalogiseren en beschikbaar te maken voor training en bediening, waardoor hergebruik toeneemt. Met een functiezoekopdracht op basis van gegevensherkomst die gebruikmaakt van automatisch geregistreerde gegevensbronnen, kunt u functies beschikbaar maken voor training en het leveren van vereenvoudigde modelimplementaties waarvoor geen wijzigingen in de clienttoepassing nodig zijn.

Zie AI en machine learning in Databricks voor meer informatie.

De naam van SQL Analytics wordt gewijzigd in Databricks SQL

27 mei 2021

De naam van SQL Analytics wordt gewijzigd in Databricks SQL. Zie de releasenotitie van Databricks SQL voor meer informatie.

ETL-pijplijnen maken en beheren met DLT (openbare preview)

26 mei 2021

Databricks introduceert DLT, een cloudservice die ETL-ontwikkeling (extract, transform and load) eenvoudig, betrouwbaar en schaalbaar maakt. DLT:

  • Biedt een intuïtieve en vertrouwde declaratieve interface voor het bouwen van pijplijnen.
  • Hiermee kunt u pijplijnen voor gegevensverwerking bewaken, afhankelijkheden visualiseren en pijplijnen en afhankelijkheden beheren in verschillende omgevingen.
  • Maakt testgestuurde ontwikkeling, afdwinging van beperkingen voor gegevenskwaliteit en toepassing van uniform beleid voor het afhandelen van gegevensfouten mogelijk
  • Automatiseert de implementatie van uw pijplijnen voor gegevensverwerking, zodat u eenvoudig gegevens kunt upgraden, terugdraaien en incrementeel opnieuw kunt verwerken.

Zie declaratieve pijplijnen van Lakeflow Spark voor meer informatie.

Azure Spot-VM's zijn algemeen beschikbaar

24 mei 2021

De mogelijkheid om Azure Databricks-clusters te maken met Azure Spot Virtual Machines is nu algemeen beschikbaar. U kunt nu profiteren van aanzienlijke kostenbesparingen met Azure-spotinstanties en uw totale eigendomskosten (TCO) van Azure Databricks verlagen. U kunt ervoor kiezen om Spot-exemplaren van Azure te gebruiken wanneer u:

  • Gebruik de UI om een cluster te maken door het selectievakje Spot-exemplaren aan te vinken.
  • Gebruik de API om een cluster te maken, waarbij u het azure_attributes veld opgeeft in de clusterkenmerken van de aanvraag.
  • Gebruik de gebruikersinterface om een exemplaargroep te maken en selecteer de All Spot optie.
  • Gebruik de API om een exemplaargroep te maken, waarbij u het azure_attributes veld opgeeft in de aanvraag voor het maken van een exemplaargroep.

Databricks SQL-query's en querygeschiedenis versleutelen met uw eigen sleutel (openbare preview)

20 mei 2021

Zie de releaseopmerkingen van Databricks SQL voor details.

Verhoogde limiet voor het aantal beëindigde clusters voor alle doeleinden

18 mei 2021: versie 3.46

U kunt nu maximaal 150 beëindigde clusters voor alle doeleinden in een Azure Databricks-werkruimte hebben. Voorheen was de limiet 120. Zie Een berekening beëindigen voor meer informatie. De limiet voor het aantal beëindigde all-purpose clusters die worden geretourneerd door de clusters-API-aanvraag is nu ook 150.

Verhoogde limiet voor het aantal gepinde clusters

18 mei 2021: versie 3.46

U kunt nu maximaal 70 vastgemaakte clusters in een Azure Databricks-werkruimte hebben. Voorheen was de limiet 50. Zie Een compute vastzetten voor meer informatie

Beheren waar notebookresultaten worden opgeslagen (Openbare preview)

18 mei 2021: versie 3.46

U kunt er nu voor kiezen om alle notebookresultaten op te slaan in uw Azure Storage-hoofdexemplaren, ongeacht de grootte of het uitvoeringstype. Standaard worden sommige resultaten voor interactieve notebooks opgeslagen in Azure Databricks. Met een nieuwe configuratie kunt u deze opslaan in de root van het Azure Storage-exemplaar in uw nieuwe account. Zie Opslaglocatie voor notebookresultaten configureren voor meer informatie.

Deze functie heeft geen invloed op notebooks die worden uitgevoerd als opdrachten, waarvan de resultaten altijd worden opgeslagen in de root-instance van Azure Storage.

Notebookgegevens en geheime gegevens in het besturingsvlak versleutelen met uw eigen sleutel (Openbare Preview)

10 mei 2021

Een Azure Databricks-werkruimte bestaat uit een besturingsvlak dat wordt gehost in een door Azure Databricks beheerd abonnement en een rekenvlak dat is geïmplementeerd in uw Azure-abonnement. In het besturingsvlak worden de gegevens van uw beheerde services opgeslagen, waaronder notebookopdrachten, geheimen en andere configuratiegegevens van de werkruimte. Deze gegevens worden standaard versleuteld met een door Azure Databricks beheerde sleutel, maar u kunt nu een sleutel toevoegen vanuit uw Azure Key Vault-exemplaar om deze gegevens te versleutelen. Zie Door de klant beheerde sleutels inschakelen voor beheerde services.

Ondersteuning voor Databricks Runtime 7.4-serie eindigt

3 mei 2021

Ondersteuning voor Databricks Runtime 7.4, Databricks Runtime 7.4 voor Machine Learning en Databricks Runtime 7.4 voor Genomics is beëindigd op 3 mei. Zie de ondersteuningslevenscycli van Databricks.

Repos-gebruikers kunnen nu integreren met Azure DevOps met behulp van persoonlijke toegangstokens.

3-10 mei 2021: versie 3.45

Naast Microsoft Entra ID-toegangstokens kunt u nu een persoonlijk toegangstoken gebruiken om te verifiëren met Azure DevOps. Zie Databricks Git-mappen instellen voor meer informatie.