Nota
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
En este artículo se proporciona información general sobre la tabla del sistema de utilización facturable, incluidas las consultas de esquema y ejemplo. Con las tablas del sistema, los datos de uso facturables de la cuenta se centralizan y se enrutan a todas las regiones, permitiéndole ver el uso global de su cuenta desde cualquier región donde esté su área de trabajo.
Para obtener información sobre cómo usar esta tabla para supervisar los costos y las consultas de ejemplo, consulte Supervisar los costos mediante tablas del sistema.
Ruta de acceso de tabla: esta tabla del sistema se encuentra en system.billing.usage
.
Esquema de tabla de uso facturable
La tabla del sistema de utilización facturable usa el esquema siguiente:
Nombre de la columna | Tipo de datos | Descripción | Ejemplo |
---|---|---|---|
record_id |
cadena | Identificador único de este registro de uso | 11e22ba4-87b9-4cc2-9770-d10b894b7118 |
account_id |
cadena | Identificador de la cuenta para la que se generó este informe | 23e22ba4-87b9-4cc2-9770-d10b894b7118 |
workspace_id |
cadena | Id. del área de trabajo a la que se ha asociado este uso | 1234567890123456 |
sku_name |
cadena | Nombre de la SKU | STANDARD_ALL_PURPOSE_COMPUTE |
cloud |
cadena | Nube asociada a este uso. Los valores posibles son AWS , AZURE y GCP . |
AWS , AZURE , o GCP |
usage_start_time |
marca de tiempo | Hora de inicio relevante para este registro de utilización. La información de zona horaria se registra al final del valor con +00:00 que representa la zona horaria UTC. |
2023-01-09 10:00:00.000+00:00 |
usage_end_time |
marca de tiempo | Hora de finalización relevante para este registro de utilización. La información de zona horaria se registra al final del valor con +00:00 que representa la zona horaria UTC. |
2023-01-09 11:00:00.000+00:00 |
usage_date |
fecha | Fecha del registro de uso, este campo se puede usar para una agregación más rápida por fecha. | 2023-01-01 |
custom_tags |
mapa | Etiquetas personalizadas asociado al registro de utilización | { “env”: “production” } |
usage_unit |
cadena | Unidad en la que se mide este uso | DBU |
usage_quantity |
Decimal | Número de unidades consumidas para este registro | 259.2958 |
usage_metadata |
Estructura | Metadatos proporcionados por el sistema sobre el uso, incluidos los identificadores para los recursos de proceso y los trabajos (si procede). Consulte Metadatos de utilización. | Consulte Metadatos de utilización |
identity_metadata |
Estructura | Metadatos proporcionados por el sistema sobre las identidades implicadas en el uso. Consulte Metadatos de identidad. | Consulte Metadatos de identidad |
record_type |
cadena | Si el registro es original, una retracción o una reafirmación. El valor es ORIGINAL a menos que el registro esté relacionado con una corrección. Consulte Tipo de registro. |
ORIGINAL |
ingestion_date |
fecha | Fecha en la que se ingirió el registro en la tabla usage |
2024-01-01 |
billing_origin_product |
cadena | Producto que originó el uso. Algunos productos se pueden facturar como SKU diferentes. Para conocer los valores posibles, consulte Producto. | JOBS |
product_features |
Estructura | Detalles sobre las características específicas del producto usadas. Consulte Características del producto. | Consulte Características del producto |
usage_type |
cadena | Tipo de uso que se atribuye al producto o a la carga de trabajo con fines de facturación. Los valores posibles son COMPUTE_TIME , STORAGE_SPACE , NETWORK_BYTE , NETWORK_HOUR , API_OPERATION , TOKEN y GPU_TIME . |
STORAGE_SPACE |
Referencia de metadatos de uso
Los valores de usage_metadata
son todos cadenas que indican los objetos del área de trabajo y recursos implicados en el registro de uso.
Solo se rellena un subconjunto de estos valores en cualquier registro de uso determinado, según el tipo de proceso y las características usadas. La tercera columna de la tabla muestra qué tipos de uso pueden causar que se rellenen cada valor.
Valor | Descripción | Rellenado para (de lo contrario, null ) |
---|---|---|
cluster_id |
Identificador del clúster asociado al registro de uso | Uso de recursos de cómputo no sin servidor, incluidos cuadernos, tareas, canalizaciones declarativas de Lakeflow y entrega de modelos heredados |
job_id |
Identificador del trabajo asociado al registro de uso | Los trabajos sin servidor y los trabajos que se ejecutan en proceso de trabajo (no se rellenan los trabajos que se ejecutan en proceso multiuso) |
warehouse_id |
Identificador de SQL Warehouse asociado al registro de uso | Las cargas de trabajo se ejecutan en una instancia de SQL Warehouse |
instance_pool_id |
Identificador del grupo de instancias asociado al registro de uso | Uso de computación no sin servidor desde grupos, incluidos cuadernos, trabajos, canalizaciones declarativas de Lakeflow y servicio de modelos heredados |
node_type |
El tipo de instancia del recurso de proceso | Uso de procesamiento no sin servidor, incluidos cuadernos, trabajos, canalizaciones declarativas de Lakeflow y todos los almacenes de SQL |
job_run_id |
Identificador de la ejecución del trabajo asociada al registro de uso | Los trabajos sin servidor y los trabajos que se ejecutan en proceso de trabajo (no se rellenan los trabajos que se ejecutan en proceso multiuso) |
notebook_id |
Identificador del cuaderno asociado a la utilización | Cuadernos sin servidor |
dlt_pipeline_id |
Identificador de la canalización asociada al registro de uso | Canalizaciones declarativas de Lakeflow y características que utilizan estas canalizaciones, como vistas materializadas, tablas en línea, indexación de búsqueda vectorial y Lakeflow Connect |
endpoint_name |
Nombre del punto de conexión de servicio del modelo o punto de conexión de vector de búsqueda asociado al registro de utilización | Modelo de servicio y vector de búsqueda |
endpoint_id |
Identificador del modelo de puntos de conexión de servicio o punto de conexión de vector de búsqueda asociado al registro de utilización | Modelo de servicio y vector de búsqueda |
dlt_update_id |
Identificador de la actualización de la canalización asociada al registro de uso | Canalizaciones declarativas de Lakeflow y características que utilizan estas canalizaciones, como vistas materializadas, tablas en línea, indexación de búsqueda vectorial y Lakeflow Connect |
dlt_maintenance_id |
Identificador de las tareas de mantenimiento de canalización asociadas al registro de uso | Canalizaciones declarativas de Lakeflow y características que utilizan estas canalizaciones, como vistas materializadas, tablas en línea, indexación de búsqueda vectorial y Lakeflow Connect |
metastore_id |
Este valor no se rellena en Azure Databricks | Siempre null |
run_name |
Nombre orientado al usuario único de la ejecución del ajuste fino de Foundation Model asociado al registro de utilización | Optimización de modelos de base |
job_name |
Nombre dado por el usuario del trabajo asociado al registro de uso | Los trabajos se ejecutan en proceso sin servidor |
notebook_path |
Ruta de acceso de almacenamiento del área de trabajo del cuaderno asociado al uso | Los cuadernos se ejecutan en proceso sin servidor |
central_clean_room_id |
Identificador de la sala de limpieza central asociada al registro de utilización | Salas limpias |
source_region |
Región del área de trabajo asociada al uso. Solo devuelve un valor para el uso relacionado con redes sin servidor. | Redes sin servidor |
destination_region |
Región del recurso al que se accede. Solo devuelve un valor para el uso relacionado con redes sin servidor. | Redes sin servidor |
app_id |
Identificador de la aplicación asociada al registro de uso | Aplicaciones de Databricks |
app_name |
Nombre proporcionado por el usuario de la aplicación asociada al registro de uso | Aplicaciones de Databricks |
private_endpoint_name |
Nombre del punto de conexión privado aplicable implementado con proceso sin servidor | Redes sin servidor |
budget_policy_id |
Identificador de la directiva de presupuesto sin servidor asociada a la carga de trabajo | Uso de cómputo sin servidor, incluidos cuadernos, tareas, canalizaciones declarativas de Lakeflow y endpoints de implementación de modelos |
Referencia de metadatos de identidad
La columna identity_metadata
proporciona más información sobre las identidades implicadas en el uso.
- El campo
run_as
registra quién ejecutó la carga de trabajo. Estos valores solo se rellenan para determinados tipos de carga de trabajo enumerados en la tabla siguiente. - El campo
owned_by
solo se aplica al uso de SQL Warehouse y registra el usuario o la entidad de servicio que posee la entidad de SQL Warehouse responsable del uso.
- El campo
identity_metadata.created_by
se aplica a aplicaciones de Databricks y registra el correo electrónico del usuario que creó la aplicación.
identidades run_as
La identidad registrada en identity_metadata.run_as
depende del producto asociado al uso. Haga referencia a la tabla siguiente para el comportamiento de identity_metadata.run_as
:
Tipo de carga de trabajo | Identidad de run_as |
---|---|
Proceso de trabajos | Usuario o entidad de servicio definida en la configuración de run_as . De manera predeterminada, los trabajos se ejecutan como la identidad del propietario del trabajo, pero los administradores pueden cambiarlo para que sea otro usuario o entidad de servicio. |
Proceso sin servidor para trabajos | Usuario o entidad de servicio definida en la configuración de run_as . De manera predeterminada, los trabajos se ejecutan como la identidad del propietario del trabajo, pero los administradores pueden cambiarlo para que sea otro usuario o entidad de servicio. |
Proceso sin servidor para cuadernos | El usuario que ejecutó los comandos del cuaderno (en concreto, el usuario que creó la sesión del cuaderno). En el caso de los cuadernos compartidos, esto incluye el uso de otros usuarios que comparten la misma sesión de cuaderno. |
Canalizaciones declarativas de Lakeflow | El usuario cuyos permisos se utilizan para ejecutar la canalización. Esto se puede cambiar mediante la transferencia de la propiedad de la canalización. |
Optimización de modelos de base | Usuario o entidad de servicio que inició la ejecución de entrenamiento de ajuste preciso. |
Optimización predictiva | La entidad de servicio propiedad de Databricks que ejecuta operaciones de optimización predictiva. |
Supervisión del almacén de lago | Usuario que creó el monitor. |
Referencia de tipo de registro
La tabla billing.usage
admite correcciones. Las correcciones se producen cuando cualquier campo del registro de uso es incorrecto y debe corregirse.
Cuando se produce una corrección, Azure Databricks agrega dos registros nuevos a la tabla. Un registro de retracción anula el registro incorrecto original y, a continuación, un registro de reafirmación incluye la información corregida. Los registros de corrección se identifican mediante el record_type
campo:
-
RETRACTION
: se usa para negar la utilización incorrecto original. Todos los campos son idénticos alORIGINAL
registro exceptousage_quantity
, que es un valor negativo que cancela la cantidad de uso original. Por ejemplo, si la cantidad de uso del registro original era259.4356
, el registro de retracción tendría una cantidad de uso de-259.4356
. -
RESTATEMENT
: registro que incluye los campos y la cantidad de uso correctos.
Por ejemplo, la consulta siguiente devuelve la cantidad de uso por hora correcta relacionada con un job_id
, incluso si se han realizado correcciones. Al agregar una cantidad de uso, un registro de anulación invalida el registro original y solo se devuelven los valores de la reexpresión.
SELECT
usage_metadata.job_id, usage_start_time, usage_end_time,
SUM(usage_quantity) as usage_quantity
FROM system.billing.usage
GROUP BY ALL
HAVING usage_quantity != 0
Nota
Para las correcciones en las que no se debe haber escrito el registro de uso original, una corrección solo puede agregar un registro de retracción y ningún registro de reposición.
Referencia del producto de origen de facturación
Algunos productos de Databricks se facturan con la misma SKU compartida. Por ejemplo, la supervisión de Lakehouse, la optimización predictiva y los flujos de trabajo sin servidor se facturan en la misma SKU de trabajos sin servidor.
Para ayudarle a diferenciar el uso, las columnas billing_origin_product
y product_features
proporcionan más información sobre el producto y las características específicas asociadas al uso.
La columna billing_origin_product
muestra el producto de Databricks asociado al registro de uso. Los valores incluyen:
JOBS
DLT
SQL
ALL_PURPOSE
MODEL_SERVING
INTERACTIVE
DEFAULT_STORAGE
VECTOR_SEARCH
LAKEHOUSE_MONITORING
PREDICTIVE_OPTIMIZATION
ONLINE_TABLES
FOUNDATION_MODEL_TRAINING
AGENT_EVALUATION
FINE_GRAINED_ACCESS_CONTROL
-
NETWORKING
: costes asociados a la conexión de proceso sin servidor a los recursos a través de puntos de conexión privados. Para usoNETWORKING
,workspace_id
esnull
,usage_unit
eshour
ynetworking.connectivity_type
esPRIVATE_IP
. -
APPS
: costos asociados con la compilación y ejecución de Databricks Apps
Referencia de las características del producto
La columna product_features
es un objeto que contiene información acerca de las características de producto específicas usadas e incluye los siguientes pares clave-valor:
-
jobs_tier
: los valores incluyenLIGHT
,CLASSIC
onull
-
sql_tier
: los valores incluyenCLASSIC
,PRO
onull
-
dlt_tier
: los valores incluyenCORE
,PRO
,ADVANCED
onull
-
is_serverless
: los valores incluyentrue
ofalse
, o biennull
-
is_photon
: los valores incluyentrue
ofalse
, o biennull
-
serving_type
: los valores incluyenMODEL
,GPU_MODEL
,FOUNDATION_MODEL
,FEATURE
onull
-
offering_type
: los valores incluyenBATCH_INFERENCE
onull
.
-
networking.connectivity_type
: los valores incluyenPUBLIC_IP
yPRIVATE_IP