Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Questo articolo fornisce una panoramica della tabella del sistema di utilizzo fatturabile, inclusi lo schema e le query di esempio. Con le tabelle di sistema, i dati di utilizzo fatturabili dell'account sono centralizzati e indirizzati a tutte le aree, in modo da poter visualizzare l'utilizzo globale dell'account da qualsiasi area in cui si trova l'area di lavoro.
Per informazioni sull'uso di questa tabella per monitorare i costi e le query di esempio, vedere Monitorare i costi usando le tabelle di sistema.
Percorso tabella: questa tabella di sistema si trova in system.billing.usage.
Schema della tabella di utilizzo fatturabile
La tabella del sistema di utilizzo fatturabile usa lo schema seguente:
| Nome colonna | Tipo di dati | Description | Example |
|---|---|---|---|
record_id |
string | ID univoco per questo record di utilizzo | 11e22ba4-87b9-4cc2-9770-d10b894b7118 |
account_id |
string | ID dell'account per cui è stato generato il report | 23e22ba4-87b9-4cc2-9770-d10b894b7118 |
workspace_id |
string | ID dell'area di lavoro a cui è stato associato questo utilizzo | 1234567890123456 |
sku_name |
string | Nome dello SKU | STANDARD_ALL_PURPOSE_COMPUTE |
cloud |
string | Cloud associato a questo utilizzo. I valori possibili sono AWS, AZUREe GCP. |
AWS, AZURE o GCP |
usage_start_time |
timestamp | Ora di inizio relativa a questo record di utilizzo. Le informazioni sul fuso orario vengono registrate alla fine del valore con +00:00 che rappresenta il fuso orario UTC. |
2023-01-09 10:00:00.000+00:00 |
usage_end_time |
timestamp | Ora di fine relativa a questo record di utilizzo. Le informazioni sul fuso orario vengono registrate alla fine del valore con +00:00 che rappresenta il fuso orario UTC. |
2023-01-09 11:00:00.000+00:00 |
usage_date |
date | Data del record di utilizzo, questo campo può essere usato per un'aggregazione più veloce per data | 2023-01-01 |
custom_tags |
map | Tag personalizzati associati al record di utilizzo | { “env”: “production” } |
usage_unit |
string | Unità in cui viene misurato questo utilizzo | DBU |
usage_quantity |
decimal | Numero di unità utilizzate per questo record | 259.2958 |
usage_metadata |
struct | Metadati forniti dal sistema relativi all'utilizzo, inclusi gli ID per le risorse di calcolo e i processi (se applicabile). Vedere Metadati di utilizzo. | Vedere Metadati di utilizzo |
identity_metadata |
struct | Metadati forniti dal sistema sulle identità coinvolte nell'utilizzo. Vedere Metadati di identità. | Vedere Metadati di identità |
record_type |
string | Se il record è originale, una ritrattazione o una riformulazione. Il valore è ORIGINAL a meno che il record non sia correlato a una correzione. Consulta Tipo di record. |
ORIGINAL |
ingestion_date |
date | Data di inserimento del record nella tabella usage |
2024-01-01 |
billing_origin_product |
string | Prodotto che ha originato l'utilizzo. Alcuni prodotti possono essere fatturati come SKU diversi. Per i valori possibili, vedere Product. | JOBS |
product_features |
struct | Informazioni dettagliate sulle funzionalità specifiche del prodotto usate. Vedere Funzionalità del prodotto. | Vedere Funzionalità del prodotto |
usage_type |
string | Tipo di utilizzo attribuito al prodotto o al carico di lavoro a scopo di fatturazione. I valori possibili sono COMPUTE_TIME, STORAGE_SPACENETWORK_BYTE, NETWORK_HOUR, API_OPERATION, TOKEN, , GPU_TIMEo ANSWER. |
STORAGE_SPACE |
Informazioni di riferimento sui metadati di utilizzo
I valori in usage_metadata sono tutte stringhe che indicano gli oggetti e le risorse dell'area di lavoro coinvolti nel record di utilizzo.
Solo un subset di questi valori viene popolato in qualsiasi record di utilizzo specificato, a seconda del tipo di calcolo e delle funzionalità usate. La terza colonna della tabella mostra i tipi di utilizzo che causano il popolamento di ogni valore.
| Value | Description | Popolato per (in caso contrario null) |
|---|---|---|
cluster_id |
ID del cluster associato al record di utilizzo | Utilizzo di calcolo non serverless, inclusi notebook, processi, pipeline dichiarative di Lakeflow Spark e modelli legacy |
job_id |
ID del lavoro associato al record di utilizzo | Attività serverless e attività eseguite su calcolo dedicato ai lavori (non disponibile per le attività eseguite su calcolo multiuso) |
warehouse_id |
ID del warehouse SQL associato al record di utilizzo | Carichi di lavoro eseguiti su un SQL Warehouse |
instance_pool_id |
ID del pool di istanze associato al record di utilizzo | Utilizzo di calcolo non serverless dai pool, inclusi notebook, lavori, pipeline dichiarative di Lakeflow Spark e servizi di modelli legacy. |
node_type |
Tipo di istanza della risorsa di calcolo | Utilizzo di calcolo non serverless, inclusi notebook, processi, pipeline dichiarative di Lakeflow Spark e tutti i warehouse SQL |
job_run_id |
ID dell'esecuzione del processo associata al record di utilizzo | Attività serverless e attività eseguite su calcolo dedicato ai lavori (non disponibile per le attività eseguite su calcolo multiuso) |
notebook_id |
ID del notebook associato all'utilizzo | Notebook serverless |
dlt_pipeline_id |
ID della pipeline associata al record di utilizzo | Pipeline dichiarative e funzionalità di Lakeflow Spark che usano pipeline dichiarative di Lakeflow Spark, ad esempio viste materializzate, tabelle online, indicizzazione di ricerca vettoriale e Lakeflow Connect |
endpoint_name |
Nome del modello che gestisce l'endpoint o l'endpoint di ricerca vettoriale associato al record di utilizzo | Gestione di modelli e ricerca vettoriale |
endpoint_id |
ID del modello che gestisce l'endpoint o l'endpoint di ricerca vettoriale associato al record di utilizzo | Gestione di modelli e ricerca vettoriale |
dlt_update_id |
ID dell'aggiornamento della pipeline associato al record di utilizzo | Pipeline dichiarative e funzionalità di Lakeflow Spark che usano pipeline dichiarative di Lakeflow Spark, ad esempio viste materializzate, tabelle online, indicizzazione di ricerca vettoriale e Lakeflow Connect |
dlt_maintenance_id |
ID delle attività di manutenzione della pipeline associate al record di utilizzo | Pipeline dichiarative e funzionalità di Lakeflow Spark che usano pipeline dichiarative di Lakeflow Spark, ad esempio viste materializzate, tabelle online, indicizzazione di ricerca vettoriale e Lakeflow Connect |
metastore_id |
Questo valore non viene popolato in Azure Databricks | Sempre null |
run_name |
Nome utente univoco del processo di fine-tuning del modello Foundation associato al record di utilizzo | Ottimizzazione del modello di base |
job_name |
Nome fornito dall'utente del lavoro associato al record di utilizzo | Processi eseguiti in un ambiente di calcolo serverless |
notebook_path |
Percorso di archiviazione dell'area di lavoro del notebook associato all'utilizzo | I notebook funzionano su calcolo serverless |
central_clean_room_id |
ID della stanza pulita centrale associata al record di utilizzo | Camere bianche |
source_region |
Area dell'area di lavoro associata all'utilizzo. Restituisce solo un valore per l'utilizzo correlato alla rete serverless. | Rete serverless |
destination_region |
Area della risorsa a cui si accede. Restituisce solo un valore per l'utilizzo correlato alla rete serverless. | Rete serverless |
app_id |
ID dell'app associata al record di utilizzo | Applicazioni Databricks |
app_name |
Nome specificato dall'utente dell'app associata al record di utilizzo | Applicazioni Databricks |
private_endpoint_name |
Nome dell'endpoint privato specifico distribuito con calcolo serverless | Rete serverless |
budget_policy_id |
ID dei criteri di budget serverless associati al carico di lavoro | Utilizzo di calcolo serverless, inclusi notebook, processi, pipeline dichiarative di Lakeflow Spark e endpoint di gestione dei modelli |
storage_api_type |
Tipo di operazione eseguita nella risorsa di archiviazione predefinita. I valori possibili sono TIER_1 (PUT, COPY, POST, LIST) e TIER_2 (altre operazioni) |
Archiviazione predefinita |
ai_runtime_workload_id |
ID del carico di lavoro GPU serverless associato al record di utilizzo | Carichi di lavoro GPU serverless |
uc_table_catalog |
Nome del catalogo di Unity associato al record di utilizzo | Viste materializzate |
uc_table_schema |
Nome dello schema del catalogo Unity associato al record di utilizzo | Viste materializzate |
uc_table_name |
Nome della tabella del catalogo Unity associato al record di utilizzo | Viste materializzate |
database_instance_id |
ID dell'istanza del database associata al record di utilizzo | Istanze del database Lakebase |
sharing_materialization_id |
ID della materializzazione della condivisione associata al record di utilizzo | Visualizzare la condivisione, le viste materializzate e le tabelle di streaming usando Delta Sharing |
usage_policy_id |
ID dei criteri di utilizzo associati al record di utilizzo | Criteri di utilizzo |
agent_bricks_id |
ID del carico di lavoro dei moduli agente associato al record di utilizzo | Carichi di lavoro di Agent Bricks |
base_environment_id |
ID dell'ambiente di base associato all'utilizzo | Utilizzo durante la compilazione o l'aggiornamento dell'ambiente serverless di base di un'area di lavoro. Popolato quando billing_origin_product è BASE_ENVIRONMENTS. |
Riferimento ai metadati di identità
La colonna identity_metadata fornisce altre informazioni sulle identità coinvolte nell'utilizzo.
- Il campo
run_asregistra chi ha eseguito il carico di lavoro. Questi valori vengono popolati solo per determinati tipi di carico di lavoro elencati nella tabella seguente. - Il campo
owned_bysi applica solo all'utilizzo di SQL Warehouse e registra l'utente o l'entità servizio proprietaria del warehouse SQL responsabile dell'utilizzo.
- Il
created_bycampo si applica alle app Databricks e agli Agent Bricks e registra l'indirizzo email dell'utente che ha creato l'app o l'agente.
identità run_as
L'identità registrata in identity_metadata.run_as dipende dal prodotto associato all'utilizzo. Fare riferimento alla tabella seguente per il comportamento di identity_metadata.run_as:
| Tipo di carico di lavoro | Identità di run_as |
|---|---|
| Calcolo dei processi | L'utente o l'entità servizio definita nella impostazione run_as. Per impostazione predefinita, i processi vengono eseguiti con l'identità del proprietario del processo, ma gli amministratori possono modificarli in modo che siano un altro utente o un principale del servizio. |
| Calcolo serverless per le attività | L'utente o l'entità servizio definita nella impostazione run_as. Per impostazione predefinita, i processi vengono eseguiti con l'identità del proprietario del processo, ma gli amministratori possono modificarli in modo che siano un altro utente o un principale del servizio. |
| Calcolo serverless per notebook | L'utente che ha eseguito i comandi del notebook( in particolare l'utente che ha creato la sessione del notebook). Per i notebook condivisi, questo include l'utilizzo da parte di altri utenti che condividono la stessa sessione del notebook. |
| Pipeline dichiarative di Lakeflow Spark | Utente o entità servizio le cui autorizzazioni vengono usate per eseguire la pipeline. Questa operazione può essere modificata trasferendo la proprietà della pipeline. |
| Ottimizzazione del modello di base | L'utente o l'entità servizio che ha avviato l'esecuzione del training di ottimizzazione. |
| Ottimizzazione predittiva | Il principale del servizio di Databricks che esegue operazioni di ottimizzazione predittiva. |
| Monitoraggio della qualità dei dati | Utente che ha creato il profilo. |
Riferimento al tipo di record
La tabella billing.usage supporta le correzioni. Le correzioni si verificano quando un campo del record di utilizzo non è corretto e deve essere corretto.
Quando si verifica una correzione, Azure Databricks aggiunge due nuovi record alla tabella. Un record di ritiro nega il record originale non corretto, quindi un record di riformazione include le informazioni corrette. I record di correzione vengono identificati usando il record_type campo :
-
RETRACTION: usato per negare l'utilizzo non corretto originale. Tutti i campi sono identici alORIGINALrecord tranneusage_quantity, ovvero un valore negativo che annulla la quantità di utilizzo originale. Ad esempio, se la quantità di utilizzo del record originale era259.4356, il record di ritiro avrebbe una quantità di utilizzo pari-259.4356a . -
RESTATEMENT: record che include i campi e la quantità di utilizzo corretti.
Ad esempio, la query seguente restituisce la quantità di utilizzo orario corretta correlata a un job_idoggetto , anche se sono state apportate correzioni. Aggregando la quantità di utilizzo, il record di ritiro annulla il record originale e vengono restituiti solo i valori del nuovo record.
SELECT
usage_metadata.job_id, usage_start_time, usage_end_time,
SUM(usage_quantity) as usage_quantity
FROM system.billing.usage
GROUP BY ALL
HAVING usage_quantity != 0
Note
Per le correzioni in cui il record di utilizzo originale non avrebbe dovuto essere scritto, una correzione può aggiungere solo un record di revoca e nessun record di ristabilimento.
informazioni di riferimento sul prodotto origine fatturazione
Alcuni prodotti Databricks vengono fatturati con lo stesso SKU condiviso. Ad esempio, il monitoraggio della qualità dei dati, l'ottimizzazione predittiva e i flussi di lavoro serverless vengono fatturati sotto lo stesso SKU di attività serverless.
Per facilitare la differenziazione dell'utilizzo, le colonne billing_origin_product e product_features forniscono maggiori informazioni dettagliate sul prodotto e sulle funzionalità specifiche associate all'utilizzo.
La colonna billing_origin_product mostra il prodotto Databricks associato al record di utilizzo. I valori includono:
| Value | Description |
|---|---|
JOBS |
Costi associati ai carichi di lavoro delle attività Lakeflow |
DLT |
Costi associati ai carichi di lavoro dichiarativi di Lakeflow Spark |
SQL |
Costi associati a Databricks SQL, inclusi i carichi di lavoro eseguiti in SQL Warehouse e viste materializzate |
ALL_PURPOSE |
Costi associati al calcolo tradizionale versatile |
MODEL_SERVING |
Costi associati al servizio del modello di intelligenza artificiale Mosaic |
INTERACTIVE |
Costi associati ai carichi di lavoro interattivi serverless |
DEFAULT_STORAGE |
Costi associati all'archiviazione predefinita |
VECTOR_SEARCH |
Costi associati alla ricerca vettoriale |
LAKEHOUSE_MONITORING |
Costi associati al monitoraggio della qualità dei dati |
PREDICTIVE_OPTIMIZATION |
Costi associati all'ottimizzazione predittiva |
ONLINE_TABLES |
Costi associati alle tabelle online (legacy) |
FOUNDATION_MODEL_TRAINING |
Costi associati all'ottimizzazione del modello di base |
AGENT_EVALUATION |
Costi associati alla valutazione dell'agente |
FINE_GRAINED_ACCESS_CONTROL |
Utilizzo serverless dal controllo di accesso con granularità fine in calcolo dedicato |
BASE_ENVIRONMENTS |
Utilizzo associato alla costruzione o all'aggiornamento dell'ambiente di base serverless di un'area di lavoro |
DATA_CLASSIFICATION |
Costi associati alle operazioni di classificazione dei dati |
DATA_QUALITY_MONITORING |
Costi associati al monitoraggio della qualità dei dati, tra cui il rilevamento anomalie e la profilatura dei dati |
AI_GATEWAY |
Costi associati all'utilizzo del gateway di intelligenza artificiale |
AI_RUNTIME |
Costi associati ai carichi di lavoro GPU serverless |
NETWORKING |
Costi associati alla connessione del calcolo serverless alle risorse tramite endpoint privati. Per l'utilizzo di NETWORKING, workspace_id è null, usage_unit è houre networking.connectivity_type è PRIVATE_IP. |
APPS |
Costi associati alla compilazione e all'esecuzione di App Databricks |
DATABASE |
Costi associati alle istanze del database Lakebase |
AI_FUNCTIONS |
Costi associati all'utilizzo di Funzioni di intelligenza artificiale . Questo prodotto registra solo l'utilizzo per la funzione AI_PARSE_DOCUMENT . |
AGENT_BRICKS |
Costi associati ai carichi di lavoro Agent Bricks |
CLEAN_ROOM |
Costi associati ai carichi di lavoro clean rooms |
LAKEFLOW_CONNECT |
Costi associati ai connettori gestiti di Lakeflow Connect |
Informazioni di riferimento sulle funzionalità del prodotto
La colonna product_features è un oggetto contenente informazioni sulle funzionalità specifiche del prodotto usate e include le coppie chiave/valore seguenti:
| Campo | Description |
|---|---|
jobs_tier |
I valori includono LIGHT, CLASSICo null |
sql_tier |
I valori includono CLASSIC, PROo null |
dlt_tier |
I valori includono CORE, PRO, ADVANCED, o null |
is_serverless |
I valori includono true o false, oppure null (il valore è true o false quando si può scegliere tra "compute" serverless e classico, altrimenti è null) |
is_photon |
I valori includono true o falseo null |
serving_type |
I valori includono MODEL, GPU_MODELFOUNDATION_MODEL, FEATURE, onull |
offering_type |
I valori includono BATCH_INFERENCE o null |
performance_target |
Indica la modalità di prestazioni del processo o della pipeline serverless. I valori includono PERFORMANCE_OPTIMIZED, STANDARDo null. I carichi di lavoro non serverless hanno un valore null. |
ai_runtime.compute_type |
Indica il tipo di calcolo per carichi di lavoro GPU serverless o null |
model_serving.offering_type |
Indica il tipo di offerta per la gestione del modello o null |
ai_gateway.feature_type |
Indica il tipo di funzionalità per i carichi di lavoro del gateway di intelligenza artificiale o null |
serverless_gpu.workload_type |
Indica il tipo di carico di lavoro per il calcolo GPU serverless o null |
ai_functions.ai_function |
Indica il tipo di funzione di intelligenza artificiale o null |
networking.connectivity_type |
I valori includono PUBLIC_IP e PRIVATE_IP |
agent_bricks.problem_type |
Indica il tipo di problema per i carichi di lavoro Agent Bricks. I valori includono AGENT_BRICKS_KNOWLEDGE_ASSISTANT o null |
agent_bricks.workload_type |
Indica il tipo di carico di lavoro per Agent Bricks. I valori includono AGENT_BRICKS_REAL_TIME_INFERENCE o null |