Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Il s’agit d’une référence de commande SQL pour Databricks SQL et Databricks Runtime.
Pour plus d’informations sur l’utilisation de SQL avec des pipelines déclaratifs Spark Lakeflow, consultez la référence du langage PIPELINE SQL.
Note
Databricks SQL Serverless n’est pas disponible dans Azure Chine. Databricks SQL n’est pas disponible dans les régions Azure Government.
Référence générale
Ces informations de référence générales décrivent les types de données, les fonctions, les identificateurs, les littéraux et la sémantique :
- Étiquette « S’applique à »
- Comment lire un diagramme de syntaxe
- Comment ajouter des commentaires à des instructions SQL
- Paramètres de configuration
- Types de données et littéraux
- Functions
- Règles de type de données SQL
- Modèles Datetime
- Fonctions géospatiales H3
- Fonctions géospatiales ST
- Fonctions lambda
- Fonctions de fenêtre
- Identifiers
- Names
- Clause IDENTIFIER
- Sémantique NULL
- Expressions
- Marqueurs de paramètres
- Variables
- Résolution de noms
- Expressions de chemin JSON
- Collation
- Partitions
- Conformité ANSI dans Databricks Runtime
- Compatibilité d’Apache Hive
- Principals
- Privilèges et objets sécurisables dans Unity Catalog
- Privilèges et objets sécurisables dans le metastore Hive
- Actualiser les métadonnées du catalogue Unity
- Emplacements externes
- tables externes
- Credentials
- Volumes
- Écriture de scripts SQL
- Delta Sharing
- Requêtes fédérées (Fédération Lakehouse)
- Schéma d’informations
- Mots réservés
Commandes DDL
Utilisez les instructions de définition de données pour créer ou modifier la structure des objets de base de données dans une base de données :
- ALTER CATALOG
- ALTER CONNECTION
- ALTER CREDENTIAL
- ALTER DATABASE
- MODIFIER L'EMPLACEMENT
- ALTER MATERIALIZED VIEW
- ALTER PROVIDER
- ALTER RECIPIENT
- ALTER STREAMING TABLE
- ALTER TABLE
- ALTER SCHEMA
- ALTER SHARE
- ALTER VIEW
- ALTER VOLUME
- COMMENT ON
- CRÉER BLOOMFILTER INDEX
- CREATE CATALOG
- CREATE CONNECTION
- CREATE DATABASE
- CREATE FUNCTION (SQL)
- CREATE FUNCTION (externe)
- CRÉER EMPLACEMENT
- CREATE MATERIALIZED VIEW
- CRÉER UNE PROCÉDURE
- CREATE RECIPIENT
- CREATE SCHEMA
- CREATE SERVER
- CREATE SHARE
- CREATE STREAMING TABLE
- CREATE TABLE
- CREATE VIEW
- CREATE VOLUME
- DECLARE VARIABLE
- DROP BLOOMFILTER INDEX (supprimer l'index Bloomfilter)
- DROP CATALOG
- DROP CONNECTION
- DROP DATABASE
- DROP CREDENTIAL
- DROP FUNCTION
- EMPLACEMENT DE DÉPÔT
- SUPPRIMER PROCÉDURE
- DROP PROVIDER
- DROP RECIPIENT
- DROP SCHEMA
- DROP SHARE
- DROP TABLE
- DROP VARIABLE
- DROP VIEW
- DROP VOLUME
- MSCK REPAIR TABLE
- REFRESH FOREIGN (CATALOG, SCHEMAou TABLE)
- REFRESH (MATERIALIZED VIEW ou STREAMING TABLE)
- SET ÉTIQUETTE
- SYNC
- TRUNCATE TABLE
- UNDROP TABLE
- BALISE UNSET
Déclarations DML
Utilisez les instructions de manipulation de données pour ajouter, modifier ou supprimer des données à partir d’une table Delta Lake :
- COPY INTO
- DELETE FROM
- INSERT DANS
- INSERT OVERWRITE DIRECTORY
- INSERT OVERWRITE DIRECTORY au format Hive
- LOAD DATA
- MERGE INTO
- UPDATE
Déclarations d’extraction de données
Utilisez une requête pour récupérer les lignes d’une ou plusieurs tables en fonction des clauses spécifiées. La syntaxe complète et la brève description des clauses prises en charge sont expliquées dans l’article Requête .
Les instructions SQL SELECT et VALUES connexes sont également comprises dans cette section.
Outre les requêtes SQL standard dans le style de SELECT FROM WHERE, Azure Databricks prend également en charge la syntaxe de pipeline SQL qui compose SQL sous la forme d’une série d’opérations chaînées telles que FROM |> WHERE |> SELECT.
Databricks SQL offre également la possibilité d’inspecter le plan logique et physique généré pour une requête à l’aide de l’instruction EXPLAIN.
Déclarations Delta Lake
Utilisez les instructions Delta Lake SQL pour gérer les tables stockées au format Delta Lake :
- CACHE SELECT
- CONVERT TO DELTA
- DESCRIBE HISTORY
- FSCK REPAIR TABLE
- GENERATE
- OPTIMIZE
- REORG TABLE
- RESTORE
- VACUUM
Pour plus d’informations sur l’utilisation des instructions Delta Lake, consultez Qu’est-ce que Delta Lake dans Azure Databricks ?.
Instructions de script SQL
Vous utilisez le script SQL pour exécuter une logique procédurale dans SQL.
- CASE
- BEGIN END, instruction composée
- FOR
- GET DIAGNOSTICS, instruction
- IF THEN ELSE, instruction
- ITERATE, instruction
- Instruction LEAVE
- Instruction LOOP
- INSTRUCTION REPEAT
- INSTRUCTION RESIGNAL
- INSTRUCTION SIGNAL
- Boucle WHILE
Instructions auxiliaires
Utilisez des instructions auxiliaires pour collecter des statistiques, gérer la mise en cache, explorer les métadonnées, définir des configurations et gérer les ressources :
- Analyser l’instruction
- Instructions relatives au cache Apache Spark
- Décrire les instructions
- Afficher les instructions
- Configuration, gestion des variables et instructions diverses
- Gestion des ressources
Analyser la déclaration
Instructions relatives au cache Apache Spark
S’applique à :
Databricks Runtime
Décrire les expressions
- DESCRIBE CATALOG
- DESCRIBE CONNECTION
- DESCRIBE CREDENTIAL
- DESCRIBE DATABASE
- DESCRIBE FUNCTION
- DÉCRIRE L’EMPLACEMENT
- DÉCRIRE LA PROCÉDURE
- DESCRIBE PROVIDER
- DESCRIBE QUERY
- DESCRIBE RECIPIENT
- DESCRIBE SCHEMA
- DESCRIBE SHARE
- DESCRIBE TABLE
- DESCRIBE VOLUME
Afficher les déclarations
- LIST
- SHOW ALL IN SHARE
- SHOW CATALOGS
- SHOW COLUMNS
- SHOW CONNECTIONS
- SHOW CREATE TABLE
- SHOW CREDENTIALS
- SHOW DATABASES
- SHOW FUNCTIONS
- SHOW GROUPS
- AFFICHER LES EMPLACEMENTS
- SHOW PARTITIONS
- AFFICHER LES PROCÉDURES
- SHOW PROVIDERS
- SHOW RECIPIENTS
- SHOW SCHEMAS
- SHOW SHARES
- SHOW SHARES IN PROVIDER
- MONTRER TABLE
- SHOW TABLES
- SHOW TABLES DROPPED
- SHOW TBLPROPERTIES
- SHOW USERS
- SHOW VIEWS
- SHOW VOLUMES
Configuration, gestion des variables et instructions diverses
- CALL
- EXECUTE IMMEDIATE
- RESET
- SET
- SET RECIPIENT
- SET TIMEZONE
- SET VARIABLE
- USE CATALOG
- USE DATABASE
- USE SCHEMA
Gestion des ressources
S’applique à :
Databricks Runtime
S’applique à :
Databricks SQL Connector
Instructions de sécurité
Utilisez les instructions SQL de sécurité pour gérer l’accès aux données :
- ALTER GROUP
- CREATE GROUP
- DENY
- DROP GROUP
- GRANT
- GRANT PARTAGER
- RÉPARER LES PRIVILÈGES
- REVOKE
- REVOKE PARTAGER
- SHOW GRANTS
- SHOW GRANTS ON SHARE
- SHOW GRANTS TO RECIPIENT
Pour plus d’informations sur l’utilisation de ces instructions, consultez Privilèges de metastore Hive et objets sécurisables (hérités).