Nota
L'accés a aquesta pàgina requereix autorització. Pots provar d'iniciar sessió o canviar de directori.
L'accés a aquesta pàgina requereix autorització. Pots provar de canviar directoris.
En este artículo se proporciona información general sobre la tabla del sistema de utilización facturable, incluidas las consultas de esquema y ejemplo. Con las tablas del sistema, los datos de uso facturables de la cuenta se centralizan y se enrutan a todas las regiones, permitiéndole ver el uso global de su cuenta desde cualquier región donde esté su área de trabajo.
Para obtener información sobre cómo usar esta tabla para supervisar los costos y las consultas de ejemplo, consulte Supervisar los costos mediante tablas del sistema.
Ruta de acceso de tabla: esta tabla del sistema se encuentra en system.billing.usage.
Esquema de tabla de uso facturable
La tabla del sistema de utilización facturable usa el esquema siguiente:
| Nombre de la columna | Tipo de dato | Description | Example |
|---|---|---|---|
record_id |
string | Identificador único de este registro de uso | 11e22ba4-87b9-4cc2-9770-d10b894b7118 |
account_id |
string | Identificador de la cuenta para la que se generó este informe | 23e22ba4-87b9-4cc2-9770-d10b894b7118 |
workspace_id |
string | Id. del área de trabajo a la que se ha asociado este uso | 1234567890123456 |
sku_name |
string | Nombre de la SKU | STANDARD_ALL_PURPOSE_COMPUTE |
cloud |
string | Nube asociada a este uso. Los valores posibles son AWS, AZURE y GCP. |
AWS, AZURE, o GCP |
usage_start_time |
timestamp | Hora de inicio relevante para este registro de utilización. La información de zona horaria se registra al final del valor con +00:00 que representa la zona horaria UTC. |
2023-01-09 10:00:00.000+00:00 |
usage_end_time |
timestamp | Hora de finalización relevante para este registro de utilización. La información de zona horaria se registra al final del valor con +00:00 que representa la zona horaria UTC. |
2023-01-09 11:00:00.000+00:00 |
usage_date |
date | Fecha del registro de uso, este campo se puede usar para una agregación más rápida por fecha. | 2023-01-01 |
custom_tags |
map | Etiquetas personalizadas asociado al registro de utilización | { “env”: “production” } |
usage_unit |
string | Unidad en la que se mide este uso | DBU |
usage_quantity |
decimal | Número de unidades consumidas para este registro | 259.2958 |
usage_metadata |
struct | Metadatos proporcionados por el sistema sobre el uso, incluidos los identificadores para los recursos de proceso y los trabajos (si procede). Consulte Metadatos de utilización. | Consulte Metadatos de utilización |
identity_metadata |
struct | Metadatos proporcionados por el sistema sobre las identidades implicadas en el uso. Consulte Metadatos de identidad. | Consulte Metadatos de identidad |
record_type |
string | Si el registro es original, una retracción o una reafirmación. El valor es ORIGINAL a menos que el registro esté relacionado con una corrección. Consulte Tipo de registro. |
ORIGINAL |
ingestion_date |
date | Fecha en la que se ingirió el registro en la tabla usage |
2024-01-01 |
billing_origin_product |
string | Producto que originó el uso. Algunos productos se pueden facturar como SKU diferentes. Para conocer los valores posibles, consulte Producto. | JOBS |
product_features |
struct | Detalles sobre las características específicas del producto usadas. Consulte Características del producto. | Consulte Características del producto |
usage_type |
string | Tipo de uso que se atribuye al producto o a la carga de trabajo con fines de facturación. Los valores posibles son COMPUTE_TIME, STORAGE_SPACE, NETWORK_BYTENETWORK_HOUR, API_OPERATION, TOKEN, , GPU_TIMEo ANSWER. |
STORAGE_SPACE |
Referencia de metadatos de uso
Los valores de usage_metadata son todos cadenas que indican los objetos del área de trabajo y recursos implicados en el registro de uso.
Solo se rellena un subconjunto de estos valores en cualquier registro de uso determinado, según el tipo de proceso y las características usadas. La tercera columna de la tabla muestra qué tipos de uso pueden causar que se rellenen cada valor.
| Value | Description | Rellenado para (de lo contrario, null) |
|---|---|---|
cluster_id |
Identificador del clúster asociado al registro de uso | Uso de computación no sin servidor, incluidos cuadernos, trabajos, canalizaciones declarativas de Spark de Lakeflow y servicio de modelos heredados |
job_id |
Identificador del trabajo asociado al registro de uso | Los trabajos sin servidor y los trabajos que se ejecutan en proceso de trabajo (no se rellenan los trabajos que se ejecutan en proceso multiuso) |
warehouse_id |
Identificador de SQL Warehouse asociado al registro de uso | Las cargas de trabajo se ejecutan en una instancia de SQL Warehouse |
instance_pool_id |
Identificador del grupo de instancias asociado al registro de uso | Uso de proceso sin servidor de grupos, incluidos cuadernos, trabajos, canalizaciones declarativas de Spark de Lakeflow y servicio de modelos heredados |
node_type |
El tipo de instancia del recurso de proceso | Uso de proceso sin servidor, incluidos cuadernos, trabajos, canalizaciones declarativas de Spark de Lakeflow y todos los almacenes de SQL |
job_run_id |
Identificador de la ejecución del trabajo asociada al registro de uso | Los trabajos sin servidor y los trabajos que se ejecutan en proceso de trabajo (no se rellenan los trabajos que se ejecutan en proceso multiuso) |
notebook_id |
Identificador del cuaderno asociado a la utilización | Cuadernos sin servidor |
dlt_pipeline_id |
Identificador de la canalización asociada al registro de uso | Canalizaciones Declarativas de Lakeflow Spark y características que utilizan las Canalizaciones Declarativas de Lakeflow Spark, como las vistas materializadas, las tablas en línea, la indexación de búsqueda vectorial y Lakeflow Connect |
endpoint_name |
Nombre del punto de conexión de servicio del modelo o punto de conexión de vector de búsqueda asociado al registro de utilización | Modelo de servicio y vector de búsqueda |
endpoint_id |
Identificador del modelo de puntos de conexión de servicio o punto de conexión de vector de búsqueda asociado al registro de utilización | Modelo de servicio y vector de búsqueda |
dlt_update_id |
Identificador de la actualización de la canalización asociada al registro de uso | Canalizaciones Declarativas de Lakeflow Spark y características que utilizan las Canalizaciones Declarativas de Lakeflow Spark, como las vistas materializadas, las tablas en línea, la indexación de búsqueda vectorial y Lakeflow Connect |
dlt_maintenance_id |
Identificador de las tareas de mantenimiento de canalización asociadas al registro de uso | Canalizaciones Declarativas de Lakeflow Spark y características que utilizan las Canalizaciones Declarativas de Lakeflow Spark, como las vistas materializadas, las tablas en línea, la indexación de búsqueda vectorial y Lakeflow Connect |
metastore_id |
Este valor no se rellena en Azure Databricks | Siempre null |
run_name |
Nombre orientado al usuario único de la ejecución del ajuste fino de Foundation Model asociado al registro de utilización | Optimización de modelos de base |
job_name |
Nombre dado por el usuario del trabajo asociado al registro de uso | Los trabajos se ejecutan en proceso sin servidor |
notebook_path |
Ruta de acceso de almacenamiento del área de trabajo del cuaderno asociado al uso | Los cuadernos se ejecutan en proceso sin servidor |
central_clean_room_id |
Identificador de la sala de limpieza central asociada al registro de utilización | Salas limpias |
source_region |
Región del área de trabajo asociada al uso. Solo devuelve un valor para el uso relacionado con redes sin servidor. | Redes sin servidor |
destination_region |
Región del recurso al que se accede. Solo devuelve un valor para el uso relacionado con redes sin servidor. | Redes sin servidor |
app_id |
Identificador de la aplicación asociada al registro de uso | Aplicaciones de Databricks |
app_name |
Nombre proporcionado por el usuario de la aplicación asociada al registro de uso | Aplicaciones de Databricks |
private_endpoint_name |
Nombre del punto de conexión privado aplicable implementado con proceso sin servidor | Redes sin servidor |
budget_policy_id |
Identificador de la directiva de presupuesto sin servidor asociada a la carga de trabajo | Uso de computación sin servidor, incluidos cuadernos, trabajos, canalizaciones declarativas de Spark de Lakeflow y puntos de acceso para el servicio de modelos. |
storage_api_type |
Tipo de operación realizada en el almacenamiento predeterminado. Los valores posibles son TIER_1 (PUT, COPY, POST, LIST) y TIER_2 (otras operaciones) |
Almacenamiento predeterminado |
ai_runtime_workload_id |
Identificador de la carga de trabajo de GPU sin servidor asociada al registro de uso | Cargas de trabajo de GPU sin servidor |
uc_table_catalog |
Nombre del catálogo de Unity asociado al registro de uso | Vistas materializadas |
uc_table_schema |
El nombre del esquema del catálogo de Unity asociado al registro de uso | Vistas materializadas |
uc_table_name |
El nombre de la tabla del catálogo de Unity asociado al registro de uso | Vistas materializadas |
database_instance_id |
Identificador de la instancia de base de datos asociada al registro de uso | Instancias de base de datos de Lakebase |
sharing_materialization_id |
Identificador de la materialización de uso compartido asociada al registro de uso | Visualización de vistas compartidas, vistas materializadas y tablas de streaming mediante Delta Sharing. |
usage_policy_id |
Identificador de la directiva de uso asociada al registro de uso | Directivas de uso |
agent_bricks_id |
Identificador de la carga de trabajo de ladrillos de agente asociada al registro de uso | Workloads de Agent Bricks |
base_environment_id |
Identificador del entorno base asociado al uso | Uso de la creación o renovación del entorno base sin servidor de un área de trabajo. Rellenado cuando billing_origin_product es BASE_ENVIRONMENTS. |
Referencia de metadatos de identidad
La columna identity_metadata proporciona más información sobre las identidades implicadas en el uso.
- El campo
run_asregistra quién ejecutó la carga de trabajo. Estos valores solo se rellenan para determinados tipos de carga de trabajo enumerados en la tabla siguiente. - El campo
owned_bysolo se aplica al uso de SQL Warehouse y registra el usuario o la entidad de servicio que posee la entidad de SQL Warehouse responsable del uso.
- El
created_bycampo se aplica a Databricks Apps and Agent Bricks y registra el correo electrónico del usuario que creó la aplicación o el agente.
identidades de run_as
La identidad registrada en identity_metadata.run_as depende del producto asociado al uso. Haga referencia a la tabla siguiente para el comportamiento de identity_metadata.run_as:
| Tipo de carga de trabajo | Identidad de run_as |
|---|---|
| Proceso de trabajos | Usuario o entidad de servicio definida en la configuración de run_as. De manera predeterminada, los trabajos se ejecutan como la identidad del propietario del trabajo, pero los administradores pueden cambiarlo para que sea otro usuario o entidad de servicio. |
| Proceso sin servidor para trabajos | Usuario o entidad de servicio definida en la configuración de run_as. De manera predeterminada, los trabajos se ejecutan como la identidad del propietario del trabajo, pero los administradores pueden cambiarlo para que sea otro usuario o entidad de servicio. |
| Proceso sin servidor para cuadernos | El usuario que ejecutó los comandos del cuaderno (en concreto, el usuario que creó la sesión del cuaderno). En el caso de los cuadernos compartidos, esto incluye el uso de otros usuarios que comparten la misma sesión de cuaderno. |
| Canalizaciones declarativas de Spark de Lakeflow | Usuario o entidad de servicio cuyos permisos se usan para ejecutar la canalización. Esto se puede cambiar mediante la transferencia de la propiedad de la canalización. |
| Optimización de modelos de base | Usuario o entidad de servicio que inició la ejecución de entrenamiento de ajuste preciso. |
| Optimización predictiva | La entidad de servicio propiedad de Databricks que ejecuta operaciones de optimización predictiva. |
| Supervisión de la calidad de los datos | Usuario que creó el perfil. |
Referencia de tipo de registro
La tabla billing.usage admite correcciones. Las correcciones se producen cuando cualquier campo del registro de uso es incorrecto y debe corregirse.
Cuando se produce una corrección, Azure Databricks agrega dos registros nuevos a la tabla. Un registro de retracción anula el registro incorrecto original y, a continuación, un registro de reafirmación incluye la información corregida. Los registros de corrección se identifican mediante el record_type campo:
-
RETRACTION: se usa para negar la utilización incorrecto original. Todos los campos son idénticos alORIGINALregistro exceptousage_quantity, que es un valor negativo que cancela la cantidad de uso original. Por ejemplo, si la cantidad de uso del registro original era259.4356, el registro de retracción tendría una cantidad de uso de-259.4356. -
RESTATEMENT: registro que incluye los campos y la cantidad de uso correctos.
Por ejemplo, la consulta siguiente devuelve la cantidad de uso por hora correcta relacionada con un job_id, incluso si se han realizado correcciones. Al agregar una cantidad de uso, un registro de anulación invalida el registro original y solo se devuelven los valores de la reexpresión.
SELECT
usage_metadata.job_id, usage_start_time, usage_end_time,
SUM(usage_quantity) as usage_quantity
FROM system.billing.usage
GROUP BY ALL
HAVING usage_quantity != 0
Note
Para las correcciones en las que no se debe haber escrito el registro de uso original, una corrección solo puede agregar un registro de retracción y ningún registro de reposición.
Referencia del producto de origen de facturación
Algunos productos de Databricks se facturan con la misma SKU compartida. Por ejemplo, la supervisión de la calidad de los datos, la optimización predictiva y los flujos de trabajo sin servidor se facturan en la misma SKU de trabajos sin servidor.
Para ayudarle a diferenciar el uso, las columnas billing_origin_product y product_features proporcionan más información sobre el producto y las características específicas asociadas al uso.
La columna billing_origin_product muestra el producto de Databricks asociado al registro de uso. Los valores incluyen:
| Value | Description |
|---|---|
JOBS |
Costos asociados a las cargas de trabajo Lakeflow Jobs |
DLT |
Costos asociados con las cargas de trabajo de Lakeflow Spark Declarative Pipelines |
SQL |
Costos asociados a Databricks SQL, incluidas las cargas de trabajo que se ejecutan en almacenes de SQL y vistas materializadas |
ALL_PURPOSE |
Costos asociados con cómputo clásico de propósito general |
MODEL_SERVING |
Costos asociados con mosaic AI Model Serving |
INTERACTIVE |
Costos asociados a cargas de trabajo interactivas sin servidor |
DEFAULT_STORAGE |
Costos asociados con el almacenamiento predeterminado |
VECTOR_SEARCH |
Costos asociados con la búsqueda de vectores |
LAKEHOUSE_MONITORING |
Costos asociados con la supervisión de la calidad de los datos |
PREDICTIVE_OPTIMIZATION |
Costos asociados a la optimización predictiva |
ONLINE_TABLES |
Costos asociados a tablas en línea (legado) |
FOUNDATION_MODEL_TRAINING |
Costos asociados con el ajuste fino del modelo de base |
AGENT_EVALUATION |
Costos asociados a la evaluación del agente |
FINE_GRAINED_ACCESS_CONTROL |
Uso sin servidor del control de acceso específico en el proceso dedicado |
BASE_ENVIRONMENTS |
Uso asociado a la compilación o actualización del entorno base sin servidor de un área de trabajo |
DATA_CLASSIFICATION |
Costos asociados a las operaciones de clasificación de datos |
DATA_QUALITY_MONITORING |
Costos asociados a la supervisión de la calidad de los datos, incluida la detección de anomalías y la generación de perfiles de datos |
AI_GATEWAY |
Costos asociados con el uso de la Puerta de Enlace de IA |
AI_RUNTIME |
Costos asociados a cargas de trabajo de GPU sin servidor |
NETWORKING |
Costos asociados con la conexión de computación sin servidor a tus recursos a través de endpoints privados. Para uso NETWORKING, workspace_id es null, usage_unit es houry networking.connectivity_type es PRIVATE_IP. |
APPS |
Costos asociados con la compilación y ejecución de Aplicaciones de Databricks |
DATABASE |
Costos asociados a instancias de base de datos de Lakebase |
AI_FUNCTIONS |
Costos asociados con el uso de AI Functions . Este producto solo registra el uso de la función AI_PARSE_DOCUMENT . |
AGENT_BRICKS |
Costos asociados a cargas de trabajo de Agent Bricks |
CLEAN_ROOM |
Costos asociados a las cargas de trabajo de Salas Limpias |
LAKEFLOW_CONNECT |
Costos asociados a conectores administrados de Lakeflow Connect |
Referencia de las características del producto
La columna product_features es un objeto que contiene información acerca de las características de producto específicas usadas e incluye los siguientes pares clave-valor:
| Campo | Description |
|---|---|
jobs_tier |
Los valores incluyen LIGHT, CLASSICo null |
sql_tier |
Los valores incluyen CLASSIC, PROo null |
dlt_tier |
Los valores incluyen CORE, PRO, ADVANCEDo null |
is_serverless |
Los valores incluyen true o , o false (el valor es null o true cuando se puede elegir entre proceso sin servidor y clásico; de lo contrario, es falsenull) |
is_photon |
Los valores incluyen true o false, o null |
serving_type |
Los valores incluyen MODEL, GPU_MODEL, FOUNDATION_MODEL, FEATUREo null |
offering_type |
Los valores incluyen BATCH_INFERENCE o null |
performance_target |
Indica el modo de rendimiento del trabajo o la canalización sin servidor. Los valores incluyen PERFORMANCE_OPTIMIZED, STANDARDo null. Las cargas de trabajo sin servidor tienen un null valor. |
ai_runtime.compute_type |
Indica el tipo de cálculo para trabajos de GPU sin servidor o null |
model_serving.offering_type |
Indica el tipo de oferta para el servicio de modelos o null |
ai_gateway.feature_type |
Indica el tipo de característica para las cargas de trabajo de AI Gateway o null |
serverless_gpu.workload_type |
Indica el tipo de tarea para la computación de GPU sin servidor o null |
ai_functions.ai_function |
Indica el tipo de función AI o null |
networking.connectivity_type |
Los valores incluyen PUBLIC_IP y PRIVATE_IP |
agent_bricks.problem_type |
Indica el tipo de problema para las cargas de trabajo de Agent Bricks. Los valores incluyen AGENT_BRICKS_KNOWLEDGE_ASSISTANT o null |
agent_bricks.workload_type |
Indica el tipo de carga de trabajo de Agent Bricks. Los valores incluyen AGENT_BRICKS_REAL_TIME_INFERENCE o null |