Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Gilt für: ✅Microsoft Fabric✅Azure Data Explorer
Ruft eine dienstseitige Abfrageerweiterung (Plug-In) auf.
Der evaluate
Operator ist ein tabellarischer Operator, mit dem Sie Abfragesprachenerweiterungen aufrufen können, die als Plug-Ins bezeichnet werden. Im Gegensatz zu anderen Sprachkonstrukten können Plug-Ins aktiviert oder deaktiviert werden. Plugins sind nicht durch die relationale Natur der Sprache "gebunden". Mit anderen Worten, sie verfügen möglicherweise nicht über ein vordefiniertes, statisch festgelegtes Ausgabeschema.
Hinweis
- Syntaktisch
evaluate
verhält sich ähnlich wie der Aufrufoperator, der tabellarische Funktionen aufruft. - Plugins, die über den Auswertungsoperator bereitgestellt werden, sind nicht an die regulären Regeln der Abfrageausführung oder Argumentauswertung gebunden.
- Bestimmte Plug-Ins können bestimmte Einschränkungen haben. Plug-Ins, deren Ausgabeschema von den Daten abhängt. So können z . B. bag_unpack Plug-Ins und Pivot-Plug-Ins nicht zum Ausführen von Clusterabfragen verwendet werden.
Syntax
[T |
] evaluate
[ evaluateParameters ] PluginName (
[ PluginArgs ])
Erfahren Sie mehr über Syntaxkonventionen.
Parameter
Name | Type | Erforderlich | Beschreibung |
---|---|---|---|
T | string |
Tabellarische Eingabe für das Plug-In. Einige Plug-Ins nehmen keine Eingaben und fungieren als tabellarische Datenquelle. | |
evaluateParameters | string |
Null oder mehr durch Leerzeichen getrennte Auswerten von Parametern in Form von Name = Value, die das Verhalten des auswertenden Vorgangs und des Ausführungsplans steuern. Jedes Plug-In kann anders entscheiden, wie jeder Parameter behandelt wird. In der Dokumentation der einzelnen Plug-Ins finden Sie spezifisches Verhalten. |
|
PluginName | string |
✔️ | Der obligatorische Name des aufgerufenen Plug-Ins. |
PluginArgs | string |
Null oder mehr kommagetrennte Argumente, die für das Plug-In bereitgestellt werden sollen. |
Auswerten von Parametern
Die folgenden Parameter werden unterstützt:
Name | Werte | Beschreibung |
---|---|---|
hint.distribution |
single , per_node per_shard |
Verteilungshinweise |
hint.pass_filters |
true , false |
Zulassen, dass evaluate der Operator alle übereinstimmenden Filter vor dem Plug-In durchgibt. Der Filter wird als "übereinstimmend" betrachtet, wenn er auf eine spalte verweist, die vor dem evaluate Operator vorhanden ist. Standard: false |
hint.pass_filters_column |
column_name | Zulassen, dass der Plug-In-Operator Durchlauffilter, die auf column_name verweisen, vor dem Plug-In übergeben. Der Parameter kann mehrmals mit unterschiedlichen Spaltennamen verwendet werden. |
Plug-Ins
Die folgenden Plug-Ins werden unterstützt:
- Autocluster-Plug-In
- Azure-digital-twins-query-request-Plug-In
- Bag-Unpack-Plug-In
- Korb-Plug-In
- cosmosdb-sql-request plugin
- dcount-intersect plugin
- diffpatterns-Plug-In
- diffpatterns-text plugin
- Infer-Storage-Schema-Plug-In
- ipv4-Lookup-Plug-In
- ipv6-Lookup-Plug-In
- mysql-request-plugin
- Schmales Plug-In
- Pivot-Plug-In
- Vorschau-Plug-In
- R-Plug-In
- Roll-Quantil-Plug-In
- Rows-Near-Plug-In
- Schemazusammenführungs-Plug-In
- Sql-Request-Plug-In
- Sequenzerkennungs-Plug-In
Verteilungshinweise
Verteilungshinweise geben an, wie die Plug-In-Ausführung über mehrere Clusterknoten verteilt wird. Jedes Plug-In kann eine andere Unterstützung für die Verteilung implementieren. Die Dokumentation des Plug-Ins gibt die Verteilungsoptionen an, die vom Plug-In unterstützt werden.
Mögliche Werte:
single
: Eine einzelne Instanz des Plug-Ins wird über die gesamten Abfragedaten ausgeführt.per_node
: Wenn die Abfrage vor dem Plugin-Aufruf über Knoten verteilt wird, wird eine Instanz des Plug-Ins auf jedem Knoten über die darin enthaltenen Daten ausgeführt.per_shard
: Wenn die Daten vor dem Plug-In-Aufruf über Shards verteilt werden, wird eine Instanz des Plug-Ins über jeden Shard der Daten ausgeführt.