Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Questo articolo offre una panoramica delle opzioni disponibili per la creazione e la gestione delle aree di lavoro.
Che cos'è un'area di lavoro?
Un'area di lavoro è una distribuzione di Azure Databricks in un account del servizio cloud. Fornisce un ambiente unificato per l'uso degli asset di Azure Databricks per un set specificato di utenti.
Sono disponibili due tipi di aree di lavoro di Databricks:
- Aree di lavoro serverless (anteprima pubblica): una distribuzione dell'area di lavoro nell'account Databricks che viene preconfigurato con la computazione serverless e l'archiviazione di default per offrire un'esperienza completamente serverless. È comunque possibile connettersi all'archiviazione cloud dalle aree di lavoro serverless.
- Aree di lavoro classiche: una distribuzione dell'area di lavoro nell'account Databricks che effettua il provisioning delle risorse di archiviazione e calcolo nell'account cloud esistente. Il calcolo serverless è ancora disponibile nelle aree di lavoro classiche.
Requisiti
Prima di creare un'area di lavoro di Azure Databricks, è necessario avere una sottoscrizione di Azure che non è una sottoscrizione di valutazione gratuita.
Se si dispone di un account gratuito, completare la procedura seguente:
- Vai al tuo profilo e modifica la tua sottoscrizione impostandola su pay-as-you-go. Consulta account gratuito di Azure.
- Rimuovere il limite di spesa.
- Richiedere un aumento della quota per le vCPU nell'area.
Autorizzazioni di Azure necessarie
Per creare un'area di lavoro di Azure Databricks, è necessario essere uno dei seguenti:
Un utente con il ruolo di Collaboratore o di Proprietario a livello di sottoscrizione Azure.
Un utente con una definizione di ruolo personalizzata con l'elenco di autorizzazioni seguente:
Microsoft.Databricks/workspaces/*Microsoft.Resources/subscriptions/resourceGroups/readMicrosoft.Resources/subscriptions/resourceGroups/writeMicrosoft.Databricks/accessConnectors/*Microsoft.Compute/register/actionMicrosoft.ManagedIdentity/register/actionMicrosoft.Storage/register/actionMicrosoft.Network/register/actionMicrosoft.Resources/deployments/validate/actionMicrosoft.Resources/deployments/writeMicrosoft.Resources/deployments/read
Annotazioni
Le autorizzazioni Microsoft.Compute/register/action, Microsoft.ManagedIdentity/register/action, Microsoft.Storage/register/action, Microsoft.Network/register/action non sono necessarie se questi provider sono già registrati nella sottoscrizione. Consulta Registra il provider di risorse.
Scelta di un tipo di area di lavoro
Le sezioni seguenti descrivono il tipo di area di lavoro migliore per i casi d'uso comuni. Usare questi consigli per decidere se distribuire un'area di lavoro serverless o classica.
Quando scegliere aree di lavoro serverless
Le aree di lavoro serverless sono la scelta migliore per i casi d'uso seguenti:
- Consentire agli utenti aziendali di accedere a Databricks One
- Creare dashboard di intelligenza artificiale/BI
- Creare app di Databricks
- Eseguire analisi esplorative usando notebook o magazzini SQL.
- Connettersi ai provider SaaS tramite Lakehouse Federation (ma non Lakeflow Connect)
- Usare Genie Spaces per i casi d'uso aziendali
- Testare le nuove funzionalità di Mosaico per intelligenza artificiale prima di spostarle nell'ambiente di produzione
- Creare pipeline dichiarative serverless di Lakeflow Spark
Quando scegliere le aree di lavoro classiche
Le aree di lavoro classiche sono la scelta migliore per i casi d'uso seguenti:
- Eseguire operazioni di sviluppo di intelligenza artificiale o Machine Learning che richiedono GPU
- Usare Databricks Runtime per Machine Learning oppure Apache Spark MLlib
- Convertire il codice legacy esistente di Spark che utilizza RDD di Spark
- Usare Scala o R come linguaggio di codifica principale
- Trasmettere dati che richiedono intervalli di trigger predefiniti o basati sul tempo
- Connettersi alle API di Databricks tramite una connessione PrivateLink
- Connettersi direttamente a sistemi locali o database privati tramite Lakeflow Connect
Opzioni di creazione dell'area di lavoro
Esistono diversi modi per distribuire un'area di lavoro di Azure Databricks. Il metodo di distribuzione standard è tramite il portale di Azure o Terraform.
- Distribuire un'area di lavoro usando il portale di Azure
- Distribuire un'area di lavoro usando Terraform
Inoltre, è possibile creare aree di lavoro usando gli strumenti seguenti: