Comparteix via


Referencia de tabla del sistema de utilización facturable

En este artículo se proporciona información general sobre la tabla del sistema de utilización facturable, incluidas las consultas de esquema y ejemplo. Con las tablas del sistema, los datos de uso facturables de la cuenta se centralizan y se enrutan a todas las regiones, permitiéndole ver el uso global de su cuenta desde cualquier región donde esté su área de trabajo.

Para obtener información sobre cómo usar esta tabla para supervisar los costos y las consultas de ejemplo, consulte Supervisar los costos mediante tablas del sistema.

Ruta de acceso de tabla: esta tabla del sistema se encuentra en system.billing.usage.

Esquema de tabla de uso facturable

La tabla del sistema de utilización facturable usa el esquema siguiente:

Nombre de la columna Tipo de dato Description Example
record_id string Identificador único de este registro de uso 11e22ba4-87b9-4cc2-9770-d10b894b7118
account_id string Identificador de la cuenta para la que se generó este informe 23e22ba4-87b9-4cc2-9770-d10b894b7118
workspace_id string Id. del área de trabajo a la que se ha asociado este uso 1234567890123456
sku_name string Nombre de la SKU STANDARD_ALL_PURPOSE_COMPUTE
cloud string Nube asociada a este uso. Los valores posibles son AWS, AZURE y GCP. AWS, AZURE, o GCP
usage_start_time timestamp Hora de inicio relevante para este registro de utilización. La información de zona horaria se registra al final del valor con +00:00 que representa la zona horaria UTC. 2023-01-09 10:00:00.000+00:00
usage_end_time timestamp Hora de finalización relevante para este registro de utilización. La información de zona horaria se registra al final del valor con +00:00 que representa la zona horaria UTC. 2023-01-09 11:00:00.000+00:00
usage_date date Fecha del registro de uso, este campo se puede usar para una agregación más rápida por fecha. 2023-01-01
custom_tags map Etiquetas personalizadas asociado al registro de utilización { “env”: “production” }
usage_unit string Unidad en la que se mide este uso DBU
usage_quantity decimal Número de unidades consumidas para este registro 259.2958
usage_metadata struct Metadatos proporcionados por el sistema sobre el uso, incluidos los identificadores para los recursos de proceso y los trabajos (si procede). Consulte Metadatos de utilización. Consulte Metadatos de utilización
identity_metadata struct Metadatos proporcionados por el sistema sobre las identidades implicadas en el uso. Consulte Metadatos de identidad. Consulte Metadatos de identidad
record_type string Si el registro es original, una retracción o una reafirmación. El valor es ORIGINAL a menos que el registro esté relacionado con una corrección. Consulte Tipo de registro. ORIGINAL
ingestion_date date Fecha en la que se ingirió el registro en la tabla usage 2024-01-01
billing_origin_product string Producto que originó el uso. Algunos productos se pueden facturar como SKU diferentes. Para conocer los valores posibles, consulte Producto. JOBS
product_features struct Detalles sobre las características específicas del producto usadas. Consulte Características del producto. Consulte Características del producto
usage_type string Tipo de uso que se atribuye al producto o a la carga de trabajo con fines de facturación. Los valores posibles son COMPUTE_TIME, STORAGE_SPACE, NETWORK_BYTENETWORK_HOUR, API_OPERATION, TOKEN, , GPU_TIMEo ANSWER. STORAGE_SPACE

Referencia de metadatos de uso

Los valores de usage_metadata son todos cadenas que indican los objetos del área de trabajo y recursos implicados en el registro de uso.

Solo se rellena un subconjunto de estos valores en cualquier registro de uso determinado, según el tipo de proceso y las características usadas. La tercera columna de la tabla muestra qué tipos de uso pueden causar que se rellenen cada valor.

Value Description Rellenado para (de lo contrario, null)
cluster_id Identificador del clúster asociado al registro de uso Uso de computación no sin servidor, incluidos cuadernos, trabajos, canalizaciones declarativas de Spark de Lakeflow y servicio de modelos heredados
job_id Identificador del trabajo asociado al registro de uso Los trabajos sin servidor y los trabajos que se ejecutan en proceso de trabajo (no se rellenan los trabajos que se ejecutan en proceso multiuso)
warehouse_id Identificador de SQL Warehouse asociado al registro de uso Las cargas de trabajo se ejecutan en una instancia de SQL Warehouse
instance_pool_id Identificador del grupo de instancias asociado al registro de uso Uso de proceso sin servidor de grupos, incluidos cuadernos, trabajos, canalizaciones declarativas de Spark de Lakeflow y servicio de modelos heredados
node_type El tipo de instancia del recurso de proceso Uso de proceso sin servidor, incluidos cuadernos, trabajos, canalizaciones declarativas de Spark de Lakeflow y todos los almacenes de SQL
job_run_id Identificador de la ejecución del trabajo asociada al registro de uso Los trabajos sin servidor y los trabajos que se ejecutan en proceso de trabajo (no se rellenan los trabajos que se ejecutan en proceso multiuso)
notebook_id Identificador del cuaderno asociado a la utilización Cuadernos sin servidor
dlt_pipeline_id Identificador de la canalización asociada al registro de uso Canalizaciones Declarativas de Lakeflow Spark y características que utilizan las Canalizaciones Declarativas de Lakeflow Spark, como las vistas materializadas, las tablas en línea, la indexación de búsqueda vectorial y Lakeflow Connect
endpoint_name Nombre del punto de conexión de servicio del modelo o punto de conexión de vector de búsqueda asociado al registro de utilización Modelo de servicio y vector de búsqueda
endpoint_id Identificador del modelo de puntos de conexión de servicio o punto de conexión de vector de búsqueda asociado al registro de utilización Modelo de servicio y vector de búsqueda
dlt_update_id Identificador de la actualización de la canalización asociada al registro de uso Canalizaciones Declarativas de Lakeflow Spark y características que utilizan las Canalizaciones Declarativas de Lakeflow Spark, como las vistas materializadas, las tablas en línea, la indexación de búsqueda vectorial y Lakeflow Connect
dlt_maintenance_id Identificador de las tareas de mantenimiento de canalización asociadas al registro de uso Canalizaciones Declarativas de Lakeflow Spark y características que utilizan las Canalizaciones Declarativas de Lakeflow Spark, como las vistas materializadas, las tablas en línea, la indexación de búsqueda vectorial y Lakeflow Connect
metastore_id Este valor no se rellena en Azure Databricks Siempre null
run_name Nombre orientado al usuario único de la ejecución del ajuste fino de Foundation Model asociado al registro de utilización Optimización de modelos de base
job_name Nombre dado por el usuario del trabajo asociado al registro de uso Los trabajos se ejecutan en proceso sin servidor
notebook_path Ruta de acceso de almacenamiento del área de trabajo del cuaderno asociado al uso Los cuadernos se ejecutan en proceso sin servidor
central_clean_room_id Identificador de la sala de limpieza central asociada al registro de utilización Salas limpias
source_region Región del área de trabajo asociada al uso. Solo devuelve un valor para el uso relacionado con redes sin servidor. Redes sin servidor
destination_region Región del recurso al que se accede. Solo devuelve un valor para el uso relacionado con redes sin servidor. Redes sin servidor
app_id Identificador de la aplicación asociada al registro de uso Aplicaciones de Databricks
app_name Nombre proporcionado por el usuario de la aplicación asociada al registro de uso Aplicaciones de Databricks
private_endpoint_name Nombre del punto de conexión privado aplicable implementado con proceso sin servidor Redes sin servidor
budget_policy_id Identificador de la directiva de presupuesto sin servidor asociada a la carga de trabajo Uso de computación sin servidor, incluidos cuadernos, trabajos, canalizaciones declarativas de Spark de Lakeflow y puntos de acceso para el servicio de modelos.
storage_api_type Tipo de operación realizada en el almacenamiento predeterminado. Los valores posibles son TIER_1 (PUT, COPY, POST, LIST) y TIER_2 (otras operaciones) Almacenamiento predeterminado
ai_runtime_workload_id Identificador de la carga de trabajo de GPU sin servidor asociada al registro de uso Cargas de trabajo de GPU sin servidor
uc_table_catalog Nombre del catálogo de Unity asociado al registro de uso Vistas materializadas
uc_table_schema El nombre del esquema del catálogo de Unity asociado al registro de uso Vistas materializadas
uc_table_name El nombre de la tabla del catálogo de Unity asociado al registro de uso Vistas materializadas
database_instance_id Identificador de la instancia de base de datos asociada al registro de uso Instancias de base de datos de Lakebase
sharing_materialization_id Identificador de la materialización de uso compartido asociada al registro de uso Visualización de vistas compartidas, vistas materializadas y tablas de streaming mediante Delta Sharing.
usage_policy_id Identificador de la directiva de uso asociada al registro de uso Directivas de uso
agent_bricks_id Identificador de la carga de trabajo de ladrillos de agente asociada al registro de uso Workloads de Agent Bricks
base_environment_id Identificador del entorno base asociado al uso Uso de la creación o renovación del entorno base sin servidor de un área de trabajo. Rellenado cuando billing_origin_product es BASE_ENVIRONMENTS.

Referencia de metadatos de identidad

La columna identity_metadata proporciona más información sobre las identidades implicadas en el uso.

  • El campo run_as registra quién ejecutó la carga de trabajo. Estos valores solo se rellenan para determinados tipos de carga de trabajo enumerados en la tabla siguiente.
  • El campo owned_by solo se aplica al uso de SQL Warehouse y registra el usuario o la entidad de servicio que posee la entidad de SQL Warehouse responsable del uso.
  • El created_by campo se aplica a Databricks Apps and Agent Bricks y registra el correo electrónico del usuario que creó la aplicación o el agente.

identidades de run_as

La identidad registrada en identity_metadata.run_as depende del producto asociado al uso. Haga referencia a la tabla siguiente para el comportamiento de identity_metadata.run_as:

Tipo de carga de trabajo Identidad de run_as
Proceso de trabajos Usuario o entidad de servicio definida en la configuración de run_as. De manera predeterminada, los trabajos se ejecutan como la identidad del propietario del trabajo, pero los administradores pueden cambiarlo para que sea otro usuario o entidad de servicio.
Proceso sin servidor para trabajos Usuario o entidad de servicio definida en la configuración de run_as. De manera predeterminada, los trabajos se ejecutan como la identidad del propietario del trabajo, pero los administradores pueden cambiarlo para que sea otro usuario o entidad de servicio.
Proceso sin servidor para cuadernos El usuario que ejecutó los comandos del cuaderno (en concreto, el usuario que creó la sesión del cuaderno). En el caso de los cuadernos compartidos, esto incluye el uso de otros usuarios que comparten la misma sesión de cuaderno.
Canalizaciones declarativas de Spark de Lakeflow Usuario o entidad de servicio cuyos permisos se usan para ejecutar la canalización. Esto se puede cambiar mediante la transferencia de la propiedad de la canalización.
Optimización de modelos de base Usuario o entidad de servicio que inició la ejecución de entrenamiento de ajuste preciso.
Optimización predictiva La entidad de servicio propiedad de Databricks que ejecuta operaciones de optimización predictiva.
Supervisión de la calidad de los datos Usuario que creó el perfil.

Referencia de tipo de registro

La tabla billing.usage admite correcciones. Las correcciones se producen cuando cualquier campo del registro de uso es incorrecto y debe corregirse.

Cuando se produce una corrección, Azure Databricks agrega dos registros nuevos a la tabla. Un registro de retracción anula el registro incorrecto original y, a continuación, un registro de reafirmación incluye la información corregida. Los registros de corrección se identifican mediante el record_type campo:

  • RETRACTION: se usa para negar la utilización incorrecto original. Todos los campos son idénticos al ORIGINALregistro exceptousage_quantity, que es un valor negativo que cancela la cantidad de uso original. Por ejemplo, si la cantidad de uso del registro original era 259.4356, el registro de retracción tendría una cantidad de uso de -259.4356.
  • RESTATEMENT: registro que incluye los campos y la cantidad de uso correctos.

Por ejemplo, la consulta siguiente devuelve la cantidad de uso por hora correcta relacionada con un job_id, incluso si se han realizado correcciones. Al agregar una cantidad de uso, un registro de anulación invalida el registro original y solo se devuelven los valores de la reexpresión.

SELECT
  usage_metadata.job_id, usage_start_time, usage_end_time,
  SUM(usage_quantity) as usage_quantity
FROM system.billing.usage
GROUP BY ALL
HAVING usage_quantity != 0

Note

Para las correcciones en las que no se debe haber escrito el registro de uso original, una corrección solo puede agregar un registro de retracción y ningún registro de reposición.

Referencia del producto de origen de facturación

Algunos productos de Databricks se facturan con la misma SKU compartida. Por ejemplo, la supervisión de la calidad de los datos, la optimización predictiva y los flujos de trabajo sin servidor se facturan en la misma SKU de trabajos sin servidor.

Para ayudarle a diferenciar el uso, las columnas billing_origin_product y product_features proporcionan más información sobre el producto y las características específicas asociadas al uso.

La columna billing_origin_product muestra el producto de Databricks asociado al registro de uso. Los valores incluyen:

Value Description
JOBS Costos asociados a las cargas de trabajo Lakeflow Jobs
DLT Costos asociados con las cargas de trabajo de Lakeflow Spark Declarative Pipelines
SQL Costos asociados a Databricks SQL, incluidas las cargas de trabajo que se ejecutan en almacenes de SQL y vistas materializadas
ALL_PURPOSE Costos asociados con cómputo clásico de propósito general
MODEL_SERVING Costos asociados con mosaic AI Model Serving
INTERACTIVE Costos asociados a cargas de trabajo interactivas sin servidor
DEFAULT_STORAGE Costos asociados con el almacenamiento predeterminado
VECTOR_SEARCH Costos asociados con la búsqueda de vectores
LAKEHOUSE_MONITORING Costos asociados con la supervisión de la calidad de los datos
PREDICTIVE_OPTIMIZATION Costos asociados a la optimización predictiva
ONLINE_TABLES Costos asociados a tablas en línea (legado)
FOUNDATION_MODEL_TRAINING Costos asociados con el ajuste fino del modelo de base
AGENT_EVALUATION Costos asociados a la evaluación del agente
FINE_GRAINED_ACCESS_CONTROL Uso sin servidor del control de acceso específico en el proceso dedicado
BASE_ENVIRONMENTS Uso asociado a la compilación o actualización del entorno base sin servidor de un área de trabajo
DATA_CLASSIFICATION Costos asociados a las operaciones de clasificación de datos
DATA_QUALITY_MONITORING Costos asociados a la supervisión de la calidad de los datos, incluida la detección de anomalías y la generación de perfiles de datos
AI_GATEWAY Costos asociados con el uso de la Puerta de Enlace de IA
AI_RUNTIME Costos asociados a cargas de trabajo de GPU sin servidor
NETWORKING Costos asociados con la conexión de computación sin servidor a tus recursos a través de endpoints privados. Para uso NETWORKING, workspace_id es null, usage_unit es houry networking.connectivity_type es PRIVATE_IP.
APPS Costos asociados con la compilación y ejecución de Aplicaciones de Databricks
DATABASE Costos asociados a instancias de base de datos de Lakebase
AI_FUNCTIONS Costos asociados con el uso de AI Functions . Este producto solo registra el uso de la función AI_PARSE_DOCUMENT .
AGENT_BRICKS Costos asociados a cargas de trabajo de Agent Bricks
CLEAN_ROOM Costos asociados a las cargas de trabajo de Salas Limpias
LAKEFLOW_CONNECT Costos asociados a conectores administrados de Lakeflow Connect

Referencia de las características del producto

La columna product_features es un objeto que contiene información acerca de las características de producto específicas usadas e incluye los siguientes pares clave-valor:

Campo Description
jobs_tier Los valores incluyen LIGHT, CLASSICo null
sql_tier Los valores incluyen CLASSIC, PROo null
dlt_tier Los valores incluyen CORE, PRO, ADVANCEDo null
is_serverless Los valores incluyen true o , o false (el valor es null o true cuando se puede elegir entre proceso sin servidor y clásico; de lo contrario, es falsenull)
is_photon Los valores incluyen true o false, o null
serving_type Los valores incluyen MODEL, GPU_MODEL, FOUNDATION_MODEL, FEATUREo null
offering_type Los valores incluyen BATCH_INFERENCE o null
performance_target Indica el modo de rendimiento del trabajo o la canalización sin servidor. Los valores incluyen PERFORMANCE_OPTIMIZED, STANDARDo null. Las cargas de trabajo sin servidor tienen un null valor.
ai_runtime.compute_type Indica el tipo de cálculo para trabajos de GPU sin servidor o null
model_serving.offering_type Indica el tipo de oferta para el servicio de modelos o null
ai_gateway.feature_type Indica el tipo de característica para las cargas de trabajo de AI Gateway o null
serverless_gpu.workload_type Indica el tipo de tarea para la computación de GPU sin servidor o null
ai_functions.ai_function Indica el tipo de función AI o null
networking.connectivity_type Los valores incluyen PUBLIC_IP y PRIVATE_IP
agent_bricks.problem_type Indica el tipo de problema para las cargas de trabajo de Agent Bricks. Los valores incluyen AGENT_BRICKS_KNOWLEDGE_ASSISTANT o null
agent_bricks.workload_type Indica el tipo de carga de trabajo de Agent Bricks. Los valores incluyen AGENT_BRICKS_REAL_TIME_INFERENCE o null