sys.dm_exec_external_work (Transact-SQL)
Gilt für: SQL Server 2016 (13.x) und spätere Versionen
Gibt Informationen zur Workload pro Worker auf jedem Computeknoten zurück.
Abfrage sys.dm_exec_external_work
, um die Arbeit zu identifizieren, die für die Kommunikation mit der externen Datenquelle (z. B. Hadoop oder MongoDB) ausgeführt wurde.
Spaltenname | Datentyp | BESCHREIBUNG | Range |
---|---|---|---|
execution_id | nvarchar(32) |
Eindeutiger Bezeichner für die zugeordnete PolyBase-Abfrage. | Siehe request_ID in sys.dm_exec_requests (Transact-SQL). |
step_index | int |
Die Anforderung, die dieser Worker ausführt. | Siehe step_index in sys.dm_exec_requests (Transact-SQL). |
dms_step_index | int |
Führen Sie den DMS-Plan aus, den dieser Worker ausführt. | Siehe sys.dm_exec_dms_workers (Transact-SQL). |
compute_node_id | int |
Der Knoten, auf dem der Worker ausgeführt wird. | Siehe sys.dm_exec_compute_nodes (Transact-SQL). |
Typ | nvarchar(60) |
Der Typ der externen Arbeit. | Dateiaufteilung (für Hadoop und Azure Storage) "ODBC Data Split" (für andere externe Datenquellen) |
work_id | int |
ID der tatsächlichen Aufteilung. | Größer als oder gleich 0. |
input_name | nvarchar(4000) |
Name der zu lesenden Eingabe | Dateiname (mit Pfad) bei Verwendung von Hadoop oder Azure Storage. Bei anderen externen Datenquellen handelt es sich um die Verkettung des Speicherorts der externen Datenquelle und des Speicherorts der externen Tabelle: scheme://DataSourceHostname[:port]/[DatabaseName.][SchemaName.]TableName |
read_location | bigint |
Offset des Lesespeicherorts. | 0 auf die Anzahl der Bytes in der Datei minus 1.NULL für Nicht-Hadoop- oder Nicht-Azure-Speicher. |
read_command | nvarchar(4000) |
Die Abfrage, die an die externe Datenquelle gesendet wird. Eingeführt in SQL Server 2019 (15.x). | Text, der die Abfrage darstellt. Für Hadoop und Azure Storage wird zurückgegeben NULL . |
bytes_processed | bigint |
Gesamtanzahl von Bytes, die für die Verarbeitung von Daten durch diesen Worker zugewiesen wurden. Dieser Wert stellt möglicherweise nicht unbedingt die Gesamtsumme der von der Abfrage zurückgegebenen Daten dar. | Größer als oder gleich 0. |
length | bigint |
Länge des geteilten oder HDFS-Blocks für Hadoop | Benutzerdefinierbar. Der Standardwert ist 64M. |
status | nvarchar(32) |
Status des Workers | Ausstehend, Verarbeitung, Fertig, Fehler, Abgebrochen |
start_time | datetime |
Beginn der Arbeit | |
end_time | datetime |
Ende der Arbeit | |
total_elapsed_time | int |
Gesamtzeit in Millisekunden | |
compute_pool_id | int |
Eindeutiger Bezeichner für den Pool, in dem der Worker ausgeführt wird. Gilt nur für SQL Server Big Data-Cluster. Siehe sys.dm_exec_compute_pools (Transact-SQL). | Gibt für SQL Server unter Windows und Linux zurück0 . |
Bemerkungen
Ab SQL Server 2019 (15.x) können Sie verwendensys.dm_exec_external_work
, um die Remoteabfrage anzuzeigen, die an eine externe Datenquelle in der PolyBase-Pushdownberechnung übergeben wurde. Weitere Informationen finden Sie unter Identifizieren eines externen Pushdowns.
Weitere Informationen
PolyBase-Problembehandlung mit dynamischen Verwaltungssichten
Dynamische Verwaltungssichten und Funktionen (Transact-SQL)
Mit der Datenbank verbundene dynamische Verwaltungssichten (Transact-SQL)
Feedback
https://aka.ms/ContentUserFeedback.
Bald verfügbar: Im Laufe des Jahres 2024 werden wir GitHub-Tickets als Feedbackmechanismus für Inhalte auslaufen lassen und es durch ein neues Feedbacksystem ersetzen. Weitere Informationen finden Sie unter:Einreichen und Feedback anzeigen für