Condividi tramite


Informazioni di riferimento sulla tabella del sistema di utilizzo fatturabile

Questo articolo fornisce una panoramica della tabella del sistema di utilizzo fatturabile, inclusi lo schema e le query di esempio. Con le tabelle di sistema, i dati di utilizzo fatturabili dell'account sono centralizzati e indirizzati a tutte le aree, in modo da poter visualizzare l'utilizzo globale dell'account da qualsiasi area in cui si trova l'area di lavoro.

Per informazioni sull'uso di questa tabella per monitorare i costi e le query di esempio, vedere Monitorare i costi usando le tabelle di sistema.

Percorso tabella: questa tabella di sistema si trova in system.billing.usage.

Schema della tabella di utilizzo fatturabile

La tabella del sistema di utilizzo fatturabile usa lo schema seguente:

Nome colonna Tipo di dati Description Example
record_id string ID univoco per questo record di utilizzo 11e22ba4-87b9-4cc2-9770-d10b894b7118
account_id string ID dell'account per cui è stato generato il report 23e22ba4-87b9-4cc2-9770-d10b894b7118
workspace_id string ID dell'area di lavoro a cui è stato associato questo utilizzo 1234567890123456
sku_name string Nome dello SKU STANDARD_ALL_PURPOSE_COMPUTE
cloud string Cloud associato a questo utilizzo. I valori possibili sono AWS, AZUREe GCP. AWS, AZURE o GCP
usage_start_time timestamp Ora di inizio relativa a questo record di utilizzo. Le informazioni sul fuso orario vengono registrate alla fine del valore con +00:00 che rappresenta il fuso orario UTC. 2023-01-09 10:00:00.000+00:00
usage_end_time timestamp Ora di fine relativa a questo record di utilizzo. Le informazioni sul fuso orario vengono registrate alla fine del valore con +00:00 che rappresenta il fuso orario UTC. 2023-01-09 11:00:00.000+00:00
usage_date date Data del record di utilizzo, questo campo può essere usato per un'aggregazione più veloce per data 2023-01-01
custom_tags map Tag personalizzati associati al record di utilizzo { “env”: “production” }
usage_unit string Unità in cui viene misurato questo utilizzo DBU
usage_quantity decimal Numero di unità utilizzate per questo record 259.2958
usage_metadata struct Metadati forniti dal sistema relativi all'utilizzo, inclusi gli ID per le risorse di calcolo e i processi (se applicabile). Vedere Metadati di utilizzo. Vedere Metadati di utilizzo
identity_metadata struct Metadati forniti dal sistema sulle identità coinvolte nell'utilizzo. Vedere Metadati di identità. Vedere Metadati di identità
record_type string Se il record è originale, una ritrattazione o una riformulazione. Il valore è ORIGINAL a meno che il record non sia correlato a una correzione. Consulta Tipo di record. ORIGINAL
ingestion_date date Data di inserimento del record nella tabella usage 2024-01-01
billing_origin_product string Prodotto che ha originato l'utilizzo. Alcuni prodotti possono essere fatturati come SKU diversi. Per i valori possibili, vedere Product. JOBS
product_features struct Informazioni dettagliate sulle funzionalità specifiche del prodotto usate. Vedere Funzionalità del prodotto. Vedere Funzionalità del prodotto
usage_type string Tipo di utilizzo attribuito al prodotto o al carico di lavoro a scopo di fatturazione. I valori possibili sono COMPUTE_TIME, STORAGE_SPACENETWORK_BYTE, NETWORK_HOUR, API_OPERATION, TOKEN, , GPU_TIMEo ANSWER. STORAGE_SPACE

Informazioni di riferimento sui metadati di utilizzo

I valori in usage_metadata sono tutte stringhe che indicano gli oggetti e le risorse dell'area di lavoro coinvolti nel record di utilizzo.

Solo un subset di questi valori viene popolato in qualsiasi record di utilizzo specificato, a seconda del tipo di calcolo e delle funzionalità usate. La terza colonna della tabella mostra i tipi di utilizzo che causano il popolamento di ogni valore.

Value Description Popolato per (in caso contrario null)
cluster_id ID del cluster associato al record di utilizzo Utilizzo di calcolo non serverless, inclusi notebook, processi, pipeline dichiarative di Lakeflow Spark e modelli legacy
job_id ID del lavoro associato al record di utilizzo Attività serverless e attività eseguite su calcolo dedicato ai lavori (non disponibile per le attività eseguite su calcolo multiuso)
warehouse_id ID del warehouse SQL associato al record di utilizzo Carichi di lavoro eseguiti su un SQL Warehouse
instance_pool_id ID del pool di istanze associato al record di utilizzo Utilizzo di calcolo non serverless dai pool, inclusi notebook, lavori, pipeline dichiarative di Lakeflow Spark e servizi di modelli legacy.
node_type Tipo di istanza della risorsa di calcolo Utilizzo di calcolo non serverless, inclusi notebook, processi, pipeline dichiarative di Lakeflow Spark e tutti i warehouse SQL
job_run_id ID dell'esecuzione del processo associata al record di utilizzo Attività serverless e attività eseguite su calcolo dedicato ai lavori (non disponibile per le attività eseguite su calcolo multiuso)
notebook_id ID del notebook associato all'utilizzo Notebook serverless
dlt_pipeline_id ID della pipeline associata al record di utilizzo Pipeline dichiarative e funzionalità di Lakeflow Spark che usano pipeline dichiarative di Lakeflow Spark, ad esempio viste materializzate, tabelle online, indicizzazione di ricerca vettoriale e Lakeflow Connect
endpoint_name Nome del modello che gestisce l'endpoint o l'endpoint di ricerca vettoriale associato al record di utilizzo Gestione di modelli e ricerca vettoriale
endpoint_id ID del modello che gestisce l'endpoint o l'endpoint di ricerca vettoriale associato al record di utilizzo Gestione di modelli e ricerca vettoriale
dlt_update_id ID dell'aggiornamento della pipeline associato al record di utilizzo Pipeline dichiarative e funzionalità di Lakeflow Spark che usano pipeline dichiarative di Lakeflow Spark, ad esempio viste materializzate, tabelle online, indicizzazione di ricerca vettoriale e Lakeflow Connect
dlt_maintenance_id ID delle attività di manutenzione della pipeline associate al record di utilizzo Pipeline dichiarative e funzionalità di Lakeflow Spark che usano pipeline dichiarative di Lakeflow Spark, ad esempio viste materializzate, tabelle online, indicizzazione di ricerca vettoriale e Lakeflow Connect
metastore_id Questo valore non viene popolato in Azure Databricks Sempre null
run_name Nome utente univoco del processo di fine-tuning del modello Foundation associato al record di utilizzo Ottimizzazione del modello di base
job_name Nome fornito dall'utente del lavoro associato al record di utilizzo Processi eseguiti in un ambiente di calcolo serverless
notebook_path Percorso di archiviazione dell'area di lavoro del notebook associato all'utilizzo I notebook funzionano su calcolo serverless
central_clean_room_id ID della stanza pulita centrale associata al record di utilizzo Camere bianche
source_region Area dell'area di lavoro associata all'utilizzo. Restituisce solo un valore per l'utilizzo correlato alla rete serverless. Rete serverless
destination_region Area della risorsa a cui si accede. Restituisce solo un valore per l'utilizzo correlato alla rete serverless. Rete serverless
app_id ID dell'app associata al record di utilizzo Applicazioni Databricks
app_name Nome specificato dall'utente dell'app associata al record di utilizzo Applicazioni Databricks
private_endpoint_name Nome dell'endpoint privato specifico distribuito con calcolo serverless Rete serverless
budget_policy_id ID dei criteri di budget serverless associati al carico di lavoro Utilizzo di calcolo serverless, inclusi notebook, processi, pipeline dichiarative di Lakeflow Spark e endpoint di gestione dei modelli
storage_api_type Tipo di operazione eseguita nella risorsa di archiviazione predefinita. I valori possibili sono TIER_1 (PUT, COPY, POST, LIST) e TIER_2 (altre operazioni) Archiviazione predefinita
ai_runtime_workload_id ID del carico di lavoro GPU serverless associato al record di utilizzo Carichi di lavoro GPU serverless
uc_table_catalog Nome del catalogo di Unity associato al record di utilizzo Viste materializzate
uc_table_schema Nome dello schema del catalogo Unity associato al record di utilizzo Viste materializzate
uc_table_name Nome della tabella del catalogo Unity associato al record di utilizzo Viste materializzate
database_instance_id ID dell'istanza del database associata al record di utilizzo Istanze del database Lakebase
sharing_materialization_id ID della materializzazione della condivisione associata al record di utilizzo Visualizzare la condivisione, le viste materializzate e le tabelle di streaming usando Delta Sharing
usage_policy_id ID dei criteri di utilizzo associati al record di utilizzo Criteri di utilizzo
agent_bricks_id ID del carico di lavoro dei moduli agente associato al record di utilizzo Carichi di lavoro di Agent Bricks
base_environment_id ID dell'ambiente di base associato all'utilizzo Utilizzo durante la compilazione o l'aggiornamento dell'ambiente serverless di base di un'area di lavoro. Popolato quando billing_origin_product è BASE_ENVIRONMENTS.

Riferimento ai metadati di identità

La colonna identity_metadata fornisce altre informazioni sulle identità coinvolte nell'utilizzo.

  • Il campo run_as registra chi ha eseguito il carico di lavoro. Questi valori vengono popolati solo per determinati tipi di carico di lavoro elencati nella tabella seguente.
  • Il campo owned_by si applica solo all'utilizzo di SQL Warehouse e registra l'utente o l'entità servizio proprietaria del warehouse SQL responsabile dell'utilizzo.
  • Il created_by campo si applica alle app Databricks e agli Agent Bricks e registra l'indirizzo email dell'utente che ha creato l'app o l'agente.

identità run_as

L'identità registrata in identity_metadata.run_as dipende dal prodotto associato all'utilizzo. Fare riferimento alla tabella seguente per il comportamento di identity_metadata.run_as:

Tipo di carico di lavoro Identità di run_as
Calcolo dei processi L'utente o l'entità servizio definita nella impostazione run_as. Per impostazione predefinita, i processi vengono eseguiti con l'identità del proprietario del processo, ma gli amministratori possono modificarli in modo che siano un altro utente o un principale del servizio.
Calcolo serverless per le attività L'utente o l'entità servizio definita nella impostazione run_as. Per impostazione predefinita, i processi vengono eseguiti con l'identità del proprietario del processo, ma gli amministratori possono modificarli in modo che siano un altro utente o un principale del servizio.
Calcolo serverless per notebook L'utente che ha eseguito i comandi del notebook( in particolare l'utente che ha creato la sessione del notebook). Per i notebook condivisi, questo include l'utilizzo da parte di altri utenti che condividono la stessa sessione del notebook.
Pipeline dichiarative di Lakeflow Spark Utente o entità servizio le cui autorizzazioni vengono usate per eseguire la pipeline. Questa operazione può essere modificata trasferendo la proprietà della pipeline.
Ottimizzazione del modello di base L'utente o l'entità servizio che ha avviato l'esecuzione del training di ottimizzazione.
Ottimizzazione predittiva Il principale del servizio di Databricks che esegue operazioni di ottimizzazione predittiva.
Monitoraggio della qualità dei dati Utente che ha creato il profilo.

Riferimento al tipo di record

La tabella billing.usage supporta le correzioni. Le correzioni si verificano quando un campo del record di utilizzo non è corretto e deve essere corretto.

Quando si verifica una correzione, Azure Databricks aggiunge due nuovi record alla tabella. Un record di ritiro nega il record originale non corretto, quindi un record di riformazione include le informazioni corrette. I record di correzione vengono identificati usando il record_type campo :

  • RETRACTION: usato per negare l'utilizzo non corretto originale. Tutti i campi sono identici al ORIGINAL record tranne usage_quantity, ovvero un valore negativo che annulla la quantità di utilizzo originale. Ad esempio, se la quantità di utilizzo del record originale era 259.4356, il record di ritiro avrebbe una quantità di utilizzo pari -259.4356a .
  • RESTATEMENT: record che include i campi e la quantità di utilizzo corretti.

Ad esempio, la query seguente restituisce la quantità di utilizzo orario corretta correlata a un job_idoggetto , anche se sono state apportate correzioni. Aggregando la quantità di utilizzo, il record di ritiro annulla il record originale e vengono restituiti solo i valori del nuovo record.

SELECT
  usage_metadata.job_id, usage_start_time, usage_end_time,
  SUM(usage_quantity) as usage_quantity
FROM system.billing.usage
GROUP BY ALL
HAVING usage_quantity != 0

Note

Per le correzioni in cui il record di utilizzo originale non avrebbe dovuto essere scritto, una correzione può aggiungere solo un record di revoca e nessun record di ristabilimento.

informazioni di riferimento sul prodotto origine fatturazione

Alcuni prodotti Databricks vengono fatturati con lo stesso SKU condiviso. Ad esempio, il monitoraggio della qualità dei dati, l'ottimizzazione predittiva e i flussi di lavoro serverless vengono fatturati sotto lo stesso SKU di attività serverless.

Per facilitare la differenziazione dell'utilizzo, le colonne billing_origin_product e product_features forniscono maggiori informazioni dettagliate sul prodotto e sulle funzionalità specifiche associate all'utilizzo.

La colonna billing_origin_product mostra il prodotto Databricks associato al record di utilizzo. I valori includono:

Value Description
JOBS Costi associati ai carichi di lavoro delle attività Lakeflow
DLT Costi associati ai carichi di lavoro dichiarativi di Lakeflow Spark
SQL Costi associati a Databricks SQL, inclusi i carichi di lavoro eseguiti in SQL Warehouse e viste materializzate
ALL_PURPOSE Costi associati al calcolo tradizionale versatile
MODEL_SERVING Costi associati al servizio del modello di intelligenza artificiale Mosaic
INTERACTIVE Costi associati ai carichi di lavoro interattivi serverless
DEFAULT_STORAGE Costi associati all'archiviazione predefinita
VECTOR_SEARCH Costi associati alla ricerca vettoriale
LAKEHOUSE_MONITORING Costi associati al monitoraggio della qualità dei dati
PREDICTIVE_OPTIMIZATION Costi associati all'ottimizzazione predittiva
ONLINE_TABLES Costi associati alle tabelle online (legacy)
FOUNDATION_MODEL_TRAINING Costi associati all'ottimizzazione del modello di base
AGENT_EVALUATION Costi associati alla valutazione dell'agente
FINE_GRAINED_ACCESS_CONTROL Utilizzo serverless dal controllo di accesso con granularità fine in calcolo dedicato
BASE_ENVIRONMENTS Utilizzo associato alla costruzione o all'aggiornamento dell'ambiente di base serverless di un'area di lavoro
DATA_CLASSIFICATION Costi associati alle operazioni di classificazione dei dati
DATA_QUALITY_MONITORING Costi associati al monitoraggio della qualità dei dati, tra cui il rilevamento anomalie e la profilatura dei dati
AI_GATEWAY Costi associati all'utilizzo del gateway di intelligenza artificiale
AI_RUNTIME Costi associati ai carichi di lavoro GPU serverless
NETWORKING Costi associati alla connessione del calcolo serverless alle risorse tramite endpoint privati. Per l'utilizzo di NETWORKING, workspace_id è null, usage_unit è houre networking.connectivity_type è PRIVATE_IP.
APPS Costi associati alla compilazione e all'esecuzione di App Databricks
DATABASE Costi associati alle istanze del database Lakebase
AI_FUNCTIONS Costi associati all'utilizzo di Funzioni di intelligenza artificiale . Questo prodotto registra solo l'utilizzo per la funzione AI_PARSE_DOCUMENT .
AGENT_BRICKS Costi associati ai carichi di lavoro Agent Bricks
CLEAN_ROOM Costi associati ai carichi di lavoro clean rooms
LAKEFLOW_CONNECT Costi associati ai connettori gestiti di Lakeflow Connect

Informazioni di riferimento sulle funzionalità del prodotto

La colonna product_features è un oggetto contenente informazioni sulle funzionalità specifiche del prodotto usate e include le coppie chiave/valore seguenti:

Campo Description
jobs_tier I valori includono LIGHT, CLASSICo null
sql_tier I valori includono CLASSIC, PROo null
dlt_tier I valori includono CORE, PRO, ADVANCED, o null
is_serverless I valori includono true o false, oppure null (il valore è true o false quando si può scegliere tra "compute" serverless e classico, altrimenti è null)
is_photon I valori includono true o falseo null
serving_type I valori includono MODEL, GPU_MODELFOUNDATION_MODEL, FEATURE, onull
offering_type I valori includono BATCH_INFERENCE o null
performance_target Indica la modalità di prestazioni del processo o della pipeline serverless. I valori includono PERFORMANCE_OPTIMIZED, STANDARDo null. I carichi di lavoro non serverless hanno un valore null.
ai_runtime.compute_type Indica il tipo di calcolo per carichi di lavoro GPU serverless o null
model_serving.offering_type Indica il tipo di offerta per la gestione del modello o null
ai_gateway.feature_type Indica il tipo di funzionalità per i carichi di lavoro del gateway di intelligenza artificiale o null
serverless_gpu.workload_type Indica il tipo di carico di lavoro per il calcolo GPU serverless o null
ai_functions.ai_function Indica il tipo di funzione di intelligenza artificiale o null
networking.connectivity_type I valori includono PUBLIC_IP e PRIVATE_IP
agent_bricks.problem_type Indica il tipo di problema per i carichi di lavoro Agent Bricks. I valori includono AGENT_BRICKS_KNOWLEDGE_ASSISTANT o null
agent_bricks.workload_type Indica il tipo di carico di lavoro per Agent Bricks. I valori includono AGENT_BRICKS_REAL_TIME_INFERENCE o null