共用方式為


queryinsights.exec_requests_history (Transact-SQL)

適用於:Microsoft Fabric 中的 SQL 分析端點和倉儲

queryinsights.exec_requests_history Microsoft Fabric Data Warehouse 提供每個完成的 SQL 請求資訊。

資料行名稱 資料類型 描述
distributed_statement_id 唯一標識碼 每個查詢的唯一標識碼。
database_name varchar(200) 指定查詢執行時 SQL 端點所連接的項目名稱。
submit_time datetime2 要求提交執行的時間。
start_time datetime2 查詢開始執行的時間。
end_time datetime2 查詢完成執行的時間。
is_distributed int 指定查詢是否以分散式性質 (1) 執行 。0
statement_type varchar(128) 識別執行的指令類型。 常見的語句類型包括以下值:SELECT、、 INSERTUPDATEDELETE
total_elapsed_time_ms int 查詢完成所花費的總時間(以毫秒為單位)。
login_name varchar(128) 傳送查詢的用戶或系統名稱。
row_count bigint 查詢所擷取的數據列數目。
status varchar(30) 查詢狀態:SucceededFailedCanceled
session_id 小整數 將查詢連結至特定用戶會話的標識碼。
connection_id 唯一標識碼 查詢連線的標識碼。 可為 Null。
program_name varchar(128) 起始工作階段的用戶端程式名稱。 內部會話的值 NULL。 可為 Null。
batch_id 唯一標識碼 群組查詢的識別碼(如果適用)。 可為 Null。
root_batch_id 唯一標識碼 查詢主要群組的標識碼(如果巢狀)。 可為 Null。
query_hash varchar(200) 查詢上計算的二進位哈希值,並用來識別具有類似邏輯的查詢。 您可以使用查詢哈希,在 Query Insight 檢視之間相互關聯。 如需詳細資訊,請參閱 查詢深入解析 - 匯總
label varchar(8000) 與某些 SELECT 查詢語句相關聯的選擇性標籤字串。
result_cache_hit int 顯示此查詢 的結果集快取 狀態:

2 - 查詢使用的結果集快取 (快取叫用
1 - 查詢建立的結果集快取
0 - 查詢不適用於快取建立或使用方式
allocated_cpu_time_ms bigint 顯示配置給查詢執行之 CPU 的總時間。
data_scanned_remote_storage_mb 十進位(18,3) 顯示從遠端記憶體 (One Lake) 掃描/讀取的數據量。
data_scanned_memory_mb 十進位(18,3) 顯示從本機記憶體掃描的數據量。 從磁碟和記憶體一起掃描的數據會指出從快取讀取的數據量。
data_scanned_disk_mb 十進位(18,3) 顯示從本機磁碟掃描/讀取的數據量。 從磁碟和記憶體一起掃描的數據會指出從快取讀取的數據量。
command varchar(8000) 執行查詢的完整文字。

權限

您應該能夠存取 Premium 容量工作區內具有參與者或以上許可權的 SQL 分析端點或倉儲

範例

A。 查詢特定指令文本的查詢效能

你可以用檢視 queryinsights.exec_requets_history 圖查找查詢執行的歷史,並對關鍵字(如表格、檢視或欄位)發出指令。 例如,要在表格中尋找查詢 SalesInvoices

SELECT *
FROM 
    queryinsights.exec_requests_history 
WHERE 
    command LIKE '%SalesInvoices%';

B. 比較不同標籤的查詢

你可以用這個 queryinsights.exec_requets_history 檢視來比較不同標籤查詢之間的差異,例如查詢執行時是否使用 資料分群。 關於如何在 Fabric Data Warehouse 中使用資料叢集的教學,請參見「 Use Data Clustering in Fabric Data Warehouse」。

SELECT *
FROM 
    queryinsights.exec_requests_history 
WHERE 
    command LIKE '%NYTaxi%'
    AND label IN ('Regular','Clustered')
ORDER BY 
  submit_time DESC;

後續步驟