Megjegyzés
Az oldalhoz való hozzáféréshez engedély szükséges. Megpróbálhat bejelentkezni vagy módosítani a címtárat.
Az oldalhoz való hozzáféréshez engedély szükséges. Megpróbálhatja módosítani a címtárat.
Ez a cikk áttekintést nyújt a számlázható használati rendszer tábláról, beleértve a sémát és a példa lekérdezéseket. A rendszertáblák segítségével a fiók számlázható használati adatai központosítva és az összes régióhoz irányítva lesznek, így megtekintheti a fiók globális használatát attól függően, hogy melyik régióban van a munkaterülete.
A költségek és a minta lekérdezések figyelésére szolgáló tábla használatával kapcsolatos információkért lásd: Költségek figyelése rendszertáblák használatával.
Tábla elérési útja: Ez a rendszertábla a system.billing.usagetalálható.
Számlázható használati táblaséma
A számlázható használati rendszer táblázata a következő sémát használja:
| Oszlop neve | Adattípus | Description | Example |
|---|---|---|---|
record_id |
karakterlánc | A használati rekord egyedi azonosítója | 11e22ba4-87b9-4cc2-9770-d10b894b7118 |
account_id |
karakterlánc | A jelentés által létrehozott fiók azonosítója | 23e22ba4-87b9-4cc2-9770-d10b894b7118 |
workspace_id |
karakterlánc | Annak a munkaterületnek az azonosítója, amelyhez a használat társítva volt | 1234567890123456 |
sku_name |
karakterlánc | A termékváltozat neve | STANDARD_ALL_PURPOSE_COMPUTE |
cloud |
karakterlánc | A használathoz társított felhő. A lehetséges értékek a következők: AWS, AZUREés GCP. |
AWS, AZURE vagy GCP |
usage_start_time |
timestamp | A használati rekordhoz kapcsolódó kezdési időpont. Az időzónák adatai az érték végén lesznek rögzítve, és +00:00 az UTC időzónát jelölik. |
2023-01-09 10:00:00.000+00:00 |
usage_end_time |
timestamp | A használati rekordhoz kapcsolódó befejezési idő. Az időzónák adatai az érték végén lesznek rögzítve, és +00:00 az UTC időzónát jelölik. |
2023-01-09 11:00:00.000+00:00 |
usage_date |
date | A használati rekord dátuma, ez a mező használható a gyorsabb összesítéshez dátum szerint | 2023-01-01 |
custom_tags |
leképez | A használati rekordhoz társított egyéni címkék | { “env”: “production” } |
usage_unit |
karakterlánc | A használat mértékegysége: | DBU |
usage_quantity |
decimális | A rekordhoz felhasznált egységek száma | 259.2958 |
usage_metadata |
struktúra | Rendszer által biztosított metaadatok a használatról, beleértve a számítási erőforrások és feladatok azonosítóit (ha vannak). Lásd: használati metaadatok. | Használati metaadatok megtekintése |
identity_metadata |
struktúra | Rendszer által biztosított metaadatok a használatban részt vevő identitásokról. Lásd: Identity Metadata. | Identitás metaadatainak megtekintése |
record_type |
karakterlánc | Az, hogy a rekord eredeti, visszavonás vagy újrafogalmazás. Az érték ORIGINAL, kivéve ha a rekord egy javításhoz kapcsolódik. Lásd a rekordtípust. |
ORIGINAL |
ingestion_date |
date | A rekord usage táblába való betöltésének dátuma |
2024-01-01 |
billing_origin_product |
karakterlánc | A termék, amely a használatot eredményezte. Egyes termékek különböző termékváltozatokként számlázhatók. A lehetséges értékeket a Termékcímű témakörben talál. | JOBS |
product_features |
struktúra | A használt termékfunkciók részletei. Lásd termékjellemzők. | Termékfunkciók megtekintése |
usage_type |
karakterlánc | A termékhez vagy számítási feladathoz számlázási célból hozzárendelt használati típus. A lehetséges értékek a következőkCOMPUTE_TIME: , STORAGE_SPACENETWORK_BYTE, NETWORK_HOUR, API_OPERATION, TOKEN, GPU_TIMEvagy ANSWER. |
STORAGE_SPACE |
Használati metaadatokra vonatkozó referencia
A benne lévő usage_metadata értékek mind olyan sztringek, amelyek a használati rekordban szereplő munkaterület-objektumokról és erőforrásokról tájékoztatnak.
Az értékeknek csak egy részhalmaza van feltöltve egy adott használati rekordban, a számítási típustól és a használt funkcióktól függően. A táblázat harmadik oszlopában látható, hogy mely használati típusok okozzák az egyes értékek kitöltését.
| Value | Description | Kitöltve (egyébként null) |
|---|---|---|
cluster_id |
A használati rekordhoz társított klaszter azonosítója | Nem kiszolgáló nélküli számítási használat, beleértve a jegyzetfüzeteket, a feladatokat, a Lakeflow Spark deklaratív folyamatait és az örökölt modellszolgáltatást |
job_id |
A használati rekordhoz társított feladat azonosítója | A kiszolgáló nélküli feladatok és feladatok a feladat számításán futnak (nem töltődik be a teljes célú számításon futó feladatokhoz) |
warehouse_id |
A használati rekordhoz társított SQL Warehouse azonosítója | Számítási feladatok sql-raktáron futnak |
instance_pool_id |
A használati rekordhoz társított példánykészlet azonosítója | Nem serverless számítási felhasználás poolokból, beleértve a jegyzetfüzeteket, a feladatokat, a Lakeflow Spark deklaratív pipeline-okat és az örökölt modellkiszolgálást |
node_type |
A számítási erőforrás példánytípusa | Nem kiszolgáló nélküli számítási használat, beleértve a jegyzetfüzeteket, a feladatokat, a Lakeflow Spark deklaratív folyamatait és az összes SQL-raktárat |
job_run_id |
A használati rekordhoz társított feladatfuttatás azonosítója | A kiszolgáló nélküli feladatok és feladatok a feladat számításán futnak (nem töltődik be a teljes célú számításon futó feladatokhoz) |
notebook_id |
A használathoz társított jegyzetfüzet azonosítója | Kiszolgáló nélküli jegyzetfüzetek |
dlt_pipeline_id |
A használati rekordhoz társított csővezeték azonosítója | Lakeflow Spark Deklaratív folyamatok és a Lakeflow Spark Deklaratív folyamatokat használó funkciók, például materializált nézetek, online táblák, vektorkeresési indexelés és Lakeflow Connect |
endpoint_name |
A használati rekordhoz társított végpontot vagy vektorkeresési végpontot kiszolgáló modell neve | Modellmegjelenítés és vektorkeresés |
endpoint_id |
A használati rekordhoz társított végpontot vagy vektorkeresési végpontot kiszolgáló modell azonosítója | Modellmegjelenítés és vektorkeresés |
dlt_update_id |
A használati rekordhoz társított folyamatfrissítés azonosítója | Lakeflow Spark Deklaratív folyamatok és a Lakeflow Spark Deklaratív folyamatokat használó funkciók, például materializált nézetek, online táblák, vektorkeresési indexelés és Lakeflow Connect |
dlt_maintenance_id |
A használati rekordhoz társított folyamatkarbantartási feladatok azonosítója | Lakeflow Spark Deklaratív folyamatok és a Lakeflow Spark Deklaratív folyamatokat használó funkciók, például materializált nézetek, online táblák, vektorkeresési indexelés és Lakeflow Connect |
metastore_id |
Az érték nincs kitöltve az Azure Databricksben. | Mindig null |
run_name |
A használati rekordhoz társított alapmodell finomhangolási futtatásának egyedi, felhasználóknak szánt neve | Alapmodell finomhangolása |
job_name |
A használati rekordhoz társított feladat felhasználóneve | A feladatok kiszolgáló nélküli számításon futnak |
notebook_path |
A használathoz társított jegyzetfüzet munkaterületi tárolási útvonala | A jegyzetfüzetek szerver nélküli feldolgozáson futnak |
central_clean_room_id |
A használati rekordhoz társított központi tiszta helyiség azonosítója | Tiszta szobák |
source_region |
A használathoz társított munkaterület régiója. Csak a kiszolgáló nélküli hálózatkezeléshez kapcsolódó használat értékét adja vissza. | Kiszolgáló nélküli hálózatkezelés |
destination_region |
A hozzáférés alatt álló erőforrás régiója. Csak a kiszolgáló nélküli hálózatkezeléshez kapcsolódó használat értékét adja vissza. | Kiszolgáló nélküli hálózatkezelés |
app_id |
A használati rekordhoz társított alkalmazás azonosítója | Databricks Apps |
app_name |
A használati rekordhoz társított alkalmazás felhasználóneve | Databricks Apps |
private_endpoint_name |
A kiszolgáló nélküli számítással üzembe helyezett megfelelő privát végpont neve | Kiszolgáló nélküli hálózatkezelés |
budget_policy_id |
A számítási feladathoz csatolt kiszolgáló nélküli használati szabályzat azonosítója | Kiszolgáló nélküli számítási használat, beleértve a jegyzetfüzeteket, a feladatokat, a Lakeflow Spark deklaratív folyamatait és a végpontokat kiszolgáló modellt |
storage_api_type |
Az alapértelmezett tárolón végrehajtott művelet típusa. Lehetséges értékek a következők TIER_1 : (PUT, COPY, POST, LIST) és TIER_2 (egyéb műveletek) |
Alapértelmezett tároló |
ai_runtime_workload_id |
A használati rekordhoz társított kiszolgáló nélküli GPU-számítási feladat azonosítója | AI-futtatókörnyezeti számítási feladatok |
uc_table_catalog |
A használati rekordhoz társított Unity Catalog-katalógus neve | Materializált nézetek |
uc_table_schema |
A használati rekordhoz társított Unity Catalog-sémanév | Materializált nézetek |
uc_table_name |
A használati rekordhoz társított Unity Catalog-tábla neve | Materializált nézetek |
database_instance_id |
A használati rekordhoz társított adatbázispéldány azonosítója | Lakebase-adatbázispéldányok |
sharing_materialization_id |
A használati rekordhoz társított megosztási materializáció azonosítója | Megosztás, materializált nézetek és streamelési táblák megtekintése a Delta Sharing használatával |
usage_policy_id |
A használati rekordhoz társított kiszolgáló nélküli használati szabályzat azonosítója | Kiszolgáló nélküli használati szabályzatok |
agent_bricks_id |
A használati rekordhoz társított Agent Bricks számítási feladat azonosítója | TudássegédFelügyelő ügynök munkaterhelései |
base_environment_id |
A használathoz társított alapkörnyezet azonosítója | A munkaterület kiszolgáló nélküli alapkörnyezetének létrehozásából vagy frissítéséből származó használat. Feltöltve, ha billing_origin_product van BASE_ENVIRONMENTS. |
schema_id |
A használati rekordhoz társított séma azonosítója | Anomáliadetektálás |
table_id |
A használati rekordhoz társított tábla azonosítója | Adatprofilozás |
catalog_id |
Az alapértelmezett tárhasználathoz társított Unity Catalog-katalógus azonosítója | Alapértelmezett tároló |
Identitás metaadatainak referenciája
A identity_metadata oszlop további információt nyújt a használatban részt vevő identitásokról.
- A
run_asmező naplózza, hogy ki futtatta a számítási feladatot. Ez az érték csak az alábbi táblázatban felsorolt egyes számítási feladatokhoz van feltöltve. - A
owned_bymező csak az SQL tárraktár használatára vonatkozik, és naplózza azt a felhasználót vagy szolgáltatási főképviselőt, aki a használatért felelős SQL tárraktár tulajdonosa.
- A
created_bymező a Databricks Appsre, a Tudássegédre és a Felügyelőügynökre vonatkozik. A mező naplózza az alkalmazást vagy ügynököt létrehozó felhasználó e-mail-címét.
"run_as felhasználói identitások"
A rögzített identity_metadata.run_as identitás a használathoz társított terméktől függ. A identity_metadata.run_as viselkedéséhez tekintse meg az alábbi táblázatot:
| Terhelés típusa | Identitása run_as |
|---|---|
| Feladatok számítása | A beállításban definiált run_as felhasználó vagy szolgáltatásnév. Alapértelmezés szerint a feladatok a feladat tulajdonosának identitásaként futnak, de a rendszergazdák módosíthatják ezt egy másik felhasználó vagy szolgáltatásnévként. |
| Kiszolgáló nélküli számítás feladatokhoz | A beállításban definiált run_as felhasználó vagy szolgáltatásnév. Alapértelmezés szerint a feladatok a feladat tulajdonosának identitásaként futnak, de a rendszergazdák módosíthatják ezt egy másik felhasználó vagy szolgáltatásnévként. |
| Kiszolgáló nélküli számítás jegyzetfüzetekhez | A jegyzetfüzet-parancsokat futtató felhasználó (pontosabban a jegyzetfüzet-munkamenetet létrehozó felhasználó). Megosztott jegyzetfüzetek esetén ez magában foglalja az ugyanazon a jegyzetfüzet-munkameneten osztozó felhasználók általi használatot is. |
| Lakeflow Spark deklaratív csővezetékek | Az a felhasználó vagy szolgáltatásfőszereplő, akinek az engedélyei a folyamat futtatásához szükségesek. Ez a folyamatlánc tulajdonjogának átadásával módosítható. |
| Alapmodell finomhangolása | A betanítási futtatás finomhangolását kezdeményező felhasználó vagy szolgáltatásnév. |
| Prediktív optimalizálás | A Databricks tulajdonában lévő szolgáltatási főszereplő, amely prediktív optimalizálási műveleteket hajt végre. |
| Adatminőség-monitorozás | A profilt létrehozó felhasználó. |
Rekordtípusra vonatkozó hivatkozás
A billing.usage tábla támogatja a javításokat. Javítások akkor fordulnak elő, ha a használati rekord bármely mezője helytelen, és ki kell javítani.
Ha javítás történik, Azure Databricks két új rekordot ad hozzá a táblához. A visszahúzási rekord az eredeti helytelen rekordot tagadja meg, majd az átértékelési rekord tartalmazza a javított adatokat. A javítási rekordok a record_type következő mező használatával azonosíthatók:
-
RETRACTION: Az eredeti helytelen használat tagadására szolgál. Minden mező megegyezik aORIGINALrekorddal, kivéveusage_quantityazt a negatív értéket, amely megszakítja az eredeti használati mennyiséget. Ha például az eredeti rekord használati mennyisége volt259.4356, akkor a visszavonási rekord használati mennyisége-259.4356a következő lenne: . -
RESTATEMENT: A megfelelő mezőket és használati mennyiséget tartalmazó rekord.
Az alábbi lekérdezés például a job_id-hez kapcsolódó megfelelő óránkénti használati mennyiséget adja vissza, még akkor is, ha javításokat végeztek. A használati mennyiség összesítésével a visszahúzási rekord eltitkolja az eredeti rekordot, és csak az újrabecsülés értékei lesznek visszaadva.
SELECT
usage_metadata.job_id, usage_start_time, usage_end_time,
SUM(usage_quantity) as usage_quantity
FROM system.billing.usage
GROUP BY ALL
HAVING usage_quantity != 0
Note
Olyan javítások esetén, amelyeknél az eredeti használati rekordot nem kellett volna megírni, a javítás csak visszavonási rekordot adhat hozzá, és nem adhat hozzá visszahelyezési rekordot.
Számlázási forrás termékreferenciája
Egyes Databricks-termékek számlázása ugyanazon megosztott termékváltozat alapján történik. Az adatminőség monitorozása, a prediktív optimalizálás és a kiszolgáló nélküli munkafolyamatok számlázása például ugyanabban a kiszolgáló nélküli feladatváltozatban történik.
A használat megkülönböztetése érdekében a billing_origin_product és a product_features oszlop további betekintést nyújt a használathoz társított konkrét termékbe és funkciókba.
A billing_origin_product oszlop a használati rekordhoz társított Databricks-terméket jeleníti meg. Az értékek a következők:
| Value | Description |
|---|---|
JOBS |
A Lakeflow-feladatok számítási feladataihoz társított költségek |
DLT |
Lakeflow Spark deklaratív folyamatokhoz kapcsolódó számítási feladatok költségei |
SQL |
A Databricks SQL-hez kapcsolódó költségek, beleértve az SQL-raktárakon futtatott számítási feladatokat és a materializált nézeteket |
ALL_PURPOSE |
A klasszikus, teljes célú számításhoz kapcsolódó költségek |
MODEL_SERVING |
A Mozaik AI-modell kiszolgálásával kapcsolatos költségek |
INTERACTIVE |
Kiszolgáló nélküli interaktív számítási feladatokhoz kapcsolódó költségek |
DEFAULT_STORAGE |
Az alapértelmezett tároláshoz társított költségek |
VECTOR_SEARCH |
A Vektorkereséssel társított költségek |
LAKEHOUSE_MONITORING |
Az adatminőség monitorozásával kapcsolatos költségek |
PREDICTIVE_OPTIMIZATION |
A prediktív optimalizáláshoz kapcsolódó költségek |
ONLINE_TABLES |
Online táblákhoz társított költségek (régi) |
FOUNDATION_MODEL_TRAINING |
Az alapmodell finomhangolásával kapcsolatos költségek |
AGENT_EVALUATION |
Ügynökértékeléshez kapcsolódó költségek |
FINE_GRAINED_ACCESS_CONTROL |
Kiszolgáló nélküli használat egyedi hozzáférés-vezérléssel dedikált számítási erőforrásokon |
BASE_ENVIRONMENTS |
A munkaterület kiszolgáló nélküli alapkörnyezetének létrehozásához vagy frissítéséhez kapcsolódó használat |
DATA_CLASSIFICATION |
Az adatbesorolási műveletekhez kapcsolódó költségek |
DATA_QUALITY_MONITORING |
Az adatminőség-monitorozással kapcsolatos költségek, beleértve az anomáliadetektálást és az adatprofilozást |
DATA_SHARING |
A Delta-megosztáshoz kapcsolódó költségek |
AI_GATEWAY |
Az AI-átjáró használatával kapcsolatos költségek |
AI_RUNTIME |
Kiszolgáló nélküli GPU-számítási feladatokhoz kapcsolódó költségek |
NETWORKING |
A kiszolgáló nélküli számítás magánvégpontokon keresztüli erőforrásokhoz való csatlakoztatásával kapcsolatos költségek.
NETWORKING használat esetén workspace_idnull, usage_unithour, networking.connectivity_type pedig PRIVATE_IP. |
APPS |
A Databricks Apps létrehozásával és futtatásával kapcsolatos költségek |
DATABASE |
A Lakebase-adatbázispéldányokkal kapcsolatos költségek |
AI_FUNCTIONS |
Az AI-függvények használatával kapcsolatos költségek. Ez a termék a AI_PARSE_DOCUMENT, AI_EXTRACT és AI_CLASSIFY használatát rögzíti. |
AGENT_BRICKS |
A Knowledge AssistantSupervisor Agent munkaterheléséhez kapcsolódó költségek |
CLEAN_ROOM |
Clean Rooms számítási feladatokhoz társított költségek |
LAKEFLOW_CONNECT |
A Lakeflow Connect által felügyelt összekötőkkel társított költségek |
termékfunkciókra vonatkozó referencia
A product_features oszlop egy objektum, amely információkat tartalmaz a használt termékfunkciókról, és a következő kulcs-érték párokat tartalmazza:
| szakterület | Description |
|---|---|
jobs_tier |
Az értékek között szerepel LIGHT, CLASSIC vagy null |
sql_tier |
Az értékek között szerepel CLASSIC, PRO vagy null |
dlt_tier |
Értékek: CORE, PRO, ADVANCED, vagy null |
is_serverless |
Az értékek között szerepelhet true, false, vagy null (az érték true vagy false, ha választhat a kiszolgáló nélküli és a hagyományos számítási között, ellenkező esetben null). |
is_photon |
Az értékek közé tartozik true vagy false, vagy null |
serving_type |
Értékek: MODEL, GPU_MODEL, FOUNDATION_MODEL, FEATURE vagy null |
offering_type |
Az értékek közé tartoznak BATCH_INFERENCE vagy null |
performance_target |
A kiszolgáló nélküli feladat vagy folyamat teljesítménymódját jelzi. Az értékek között szerepel PERFORMANCE_OPTIMIZED, STANDARD vagy null. A nem kiszolgáló nélküli számítási feladatok rendelkeznek null értékkel. |
ai_runtime.compute_type |
A kiszolgáló nélküli GPU-számítási feladatok számítási típusát jelzi, vagy null |
model_serving.offering_type |
A modell kiszolgálásának ajánlattípusát jelzi, vagy null |
ai_gateway.feature_type |
Az AI-átjáró munkaterhelések szolgáltatástípusának jelzése vagy null |
serverless_gpu.workload_type |
Az AI futtatási idő (kiszolgáló nélküli GPU)-hoz tartozó terheléstípus vagy a null |
ai_functions.ai_function |
Jelzi az AI-függvény típusát vagy null |
networking.connectivity_type |
Az értékek közé tartoznak PUBLIC_IP és PRIVATE_IP |
agent_bricks.problem_type |
A Knowledge Assistant számítási feladatainak problématípusát jelzi. Az értékek közé tartozik AGENT_BRICKS_KNOWLEDGE_ASSISTANT vagy null. |
agent_bricks.workload_type |
A Knowledge Assistant számítási feladattípusát jelzi. Az értékek közé tartoznak AGENT_BRICKS_REAL_TIME_INFERENCE vagy null |