Poznámka:
Přístup k této stránce vyžaduje autorizaci. Můžete se zkusit přihlásit nebo změnit adresáře.
Přístup k této stránce vyžaduje autorizaci. Můžete zkusit změnit adresáře.
Platí pro:
Databricks SQL
Databricks Runtime
Značky parametrů jsou pojmenované nebo nepojmenované zástupné proměnné typu, které se používají k předání hodnot z rozhraní API vyvolávajícího příkaz SQL.
Použití značek parametrů chrání váš kód před útoky prostřednictvím injektáže SQL, protože jasně odděluje zadané hodnoty od struktury příkazů SQL.
Ve stejném příkazu SQL nelze kombinovat pojmenované a nepojmenované značky parametrů.
V klauzuli můžete také použít značky IDENTIFIER parametrů, které lze použít k parametrizaci názvů objektů. Vizklauzule
Značky parametrů mohou být poskytovány:
- Python pomocí svého API pyspark.sql.SparkSession.sql().
- Scala s použitím API org.apache.spark.sql.SparkSession.sql().
- Java pomocí jeho rozhraní API org.apache.spark.sql.SparkSession.sql().
Platí následující pravidla:
Platí pro:
Databricks SQL
Databricks Runtime 17.3 LTS a starší verze- Ve výrazu můžete odkazovat na značku parametru.
- V příkazu DDL nesmíte odkazovat na značku parametru, jako je vygenerovaný sloupec nebo definice
DEFAULT, zobrazení nebo funkce SQL. Výjimky jsou odkazy na značky parametrů vIDENTIFIERklauzuli, které lze použít k parametrizaci předmětu určitých příkazů DDL. Vizklauzule.
Platí pro:
Databricks Runtime 18.0 a vyšší- Odkazovat na značku parametru můžete všude tam, kde můžete použít literál stejného typu jako značka parametru.
Pojmenované značky parametrů
platí pro: Databricks Runtime
12.1 a vyšší
Pojmenované značky parametrů jsou zástupné proměnné typu. Rozhraní API, které vyvolá příkaz SQL, musí zadat páry name-value pro přidružení každé značky parametru k hodnotě.
Syntaxe
:parameter_name
Parametry
-
Odkaz na zadanou značku parametru ve formě nekvalifikovaného identifikátoru.
Poznámky
Stejnou značku parametru můžete v rámci stejného příkazu SQL odkazovat vícekrát. Pokud nebyla na značku parametru vázána žádná hodnota, je vyvolána UNBOUND_SQL_PARAMETER chyba. Nemusíte odkazovat na všechny zadané značky parametrů.
Povinný předcházející : (dvojtečka) rozlišuje obor názvů pojmenovaných značek parametrů od názvů sloupců a parametrů SQL.
Příklady
Následující příklad definuje dvě značky parametrů:
-
později:
INTERVAL HOURs hodnotou 3. -
x:
DOUBLEs hodnotou 15,0
x se odkazuje vícekrát, zatímco later se odkazuje jednou.
SQL
> DECLARE stmtStr = 'SELECT current_timestamp() + :later, :x * :x AS square';
> EXECUTE IMMEDIATE stmtStr USING INTERVAL '3' HOURS AS later, 15.0 AS x;
2024-01-19 16:17:16.692303 225.00
Scala
import org.apache.spark.sql.SparkSession
val spark = SparkSession
.builder()
.appName("Spark named parameter marker example")
.getOrCreate()
val argMap = Map("later" -> java.time.Duration.ofHours(3), "x" -> 15.0)
spark.sql(
sqlText = "SELECT current_timestamp() + :later, :x * :x AS square",
args = argMap).show()
// +----------------------------------------+------+
// |current_timestamp() + INTERVAL '03' HOUR|square|
// +----------------------------------------+------+
// | 2023-02-27 17:48:...|225.00|
// +----------------------------------------+------+
Java
import org.apache.spark.sql.*;
import static java.util.Map.entry;
SparkSession spark = SparkSession
.builder()
.appName("Java Spark named parameter marker example")
.getOrCreate();
Map<String, String> argMap = Map.ofEntries(
entry("later", java.time.Duration.ofHours(3)),
entry("x", 15.0)
);
spark.sql(
sqlText = "SELECT current_timestamp() + :later, :x * :x AS square",
args = argMap).show();
// +----------------------------------------+------+
// |current_timestamp() + INTERVAL '03' HOUR|square|
// +----------------------------------------+------+
// | 2023-02-27 17:48:...|225.00|
// +----------------------------------------+------+
Python
spark.sql("SELECT :x * :y * :z AS volume", args = { "x" : 3, "y" : 4, "z" : 5 }).show()
// +------+
// |volume|
// +------+
// | 60|
// +------+
Platí pro: Databricks Runtime
18.0 a vyšší
> EXECUTE IMMEDIATE 'SELECT 1::DECIMAL(:precision, :scale)' USING 6 AS precision, 4 AS scale;
1.0000
> EXECUTE IMMEDIATE 'CREATE VIEW v(c1 INT) AS SELECT :val AS c1' USING 10 AS val;
> SELECT * FROM v;
10
> EXECUTE IMMEDIATE 'CREATE TABLE T(c1 INT DEFAULT :def COMMENT \'This is a \' :com)' USING 17 AS def, 'comment' as com;
Nepojmenované značky parametrů
platí pro: Databricks Runtime
13.3 a vyšší
Nepojmenované značky parametrů jsou zástupné proměnné typu. Rozhraní API, které vyvolá příkaz SQL, musí zadat pole argumentů pro přidružení každé značky parametru k hodnotě v pořadí, ve kterém se zobrazí.
Syntaxe
?
Parametry
-
?: Odkaz na zadanou značku parametru ve formě otazníku.
Poznámky
Každý výskyt nepojmenované značky parametru použije hodnotu poskytnutou rozhraním API při volání SQL příkazu ve stanoveném pořadí. Pokud není žádná hodnota vázána na značku parametru, vyvolá se UNBOUND_SQL_PARAMETER chyba. Nemusíte využívat všechny zadané hodnoty.
Příklady
Následující příklad definuje tři značky parametrů:
-
INTERVAL HOURs hodnotou 3. - Dvě
DOUBLE, každé s hodnotou 15,0.
Vzhledem k tomu, že parametry nejsou pojmenovány, každá zadaná hodnota je spotřebována maximálně jedním parametrem.
SQL
> DECLARE stmtStr = 'SELECT current_timestamp() + ?, ? * ? AS square';
> EXECUTE IMMEDIATE stmtStr USING INTERVAL '3' HOURS, 15.0, 15.0;
2024-01-19 16:17:16.692303 225.00
Scala
import org.apache.spark.sql.SparkSession
val spark = SparkSession
.builder()
.appName("Spark unnamed parameter marker example")
.getOrCreate()
val argArr = Array(java.time.Duration.ofHours(3), 15.0, 15.0)
spark.sql(
sqlText = "SELECT current_timestamp() + ?, ? * ? AS square", args = argArr).show()
// +----------------------------------------+------+
// |current_timestamp() + INTERVAL '03' HOUR|square|
// +----------------------------------------+------+
// | 2023-02-27 17:48:...|225.00|
// +----------------------------------------+------+
Java
import org.apache.spark.sql.*;
SparkSession spark = SparkSession
.builder()
.appName("Java Spark unnamed parameter marker example")
.getOrCreate();
Object[] argArr = new Object[] { java.time.Duration.ofHours(3), 15.0, 15.0 }
spark.sql(
sqlText = "SELECT current_timestamp() + ?, ? * ? AS square",
args = argArr).show();
// +----------------------------------------+------+
// |current_timestamp() + INTERVAL '03' HOUR|square|
// +----------------------------------------+------+
// | 2023-02-27 17:48:...|225.00|
// +----------------------------------------+------+
Python
spark.sql("SELECT ? * ? * ? AS volume", args = [ 3, 4, 5 ]).show()
// +------+
// |volume|
// +------+
// | 60|
// +------+
Platí pro: Databricks Runtime
18.0 a vyšší
> EXECUTE IMMEDIATE 'SELECT 1::DECIMAL(?, ?)' USING 6, 4;
1.0000
> EXECUTE IMMEDIATE 'CREATE VIEW v(c1 INT) AS SELECT ? AS c1' USING 10;
> SELECT * FROM v;
10
> EXECUTE IMMEDIATE 'CREATE TABLE T(c1 INT DEFAULT ? COMMENT \'This is a \' ?)' USING 17 AS def, ? as com;