Freigeben über


Azure Synapse Analytics: Gemeinsam genutzte Metadatentabellen

Azure Synapse Analytics ermöglicht den verschiedenen Berechnungsengines von Arbeitsbereichen die gemeinsame Nutzung von Datenbanken und Tabellen zwischen den Apache Spark-Pools und dem serverlosen SQL-Pool.

Nach der Erstellung einer Datenbank durch einen Spark-Auftrag können darin Tabellen mit Spark erstellt werden, die Parquet, Delta oder CSV als Speicherformat verwenden. Tabellennamen werden in Kleinbuchstaben konvertiert und müssen mit dem Namen in Kleinbuchstaben abgefragt werden. Diese Tabellen stehen umgehend für Abfragen von beliebigen Spark-Pools des Azure Synapse-Arbeitsbereichs zur Verfügung. Darüber hinaus können sie von einem beliebigen Spark-Auftrag verwendet werden (entsprechende Berechtigungen vorausgesetzt).

Die von Spark erstellten, verwalteten und externen Tabellen werden auch als externe Tabellen mit demselben Namen in der entsprechenden synchronisierten Datenbank im serverlosen SQL-Pool verfügbar gemacht. Unter Verfügbarmachen einer Spark-Tabelle in SQL finden Sie weitere Details zur Tabellensynchronisierung.

Da die Tabellen asynchron mit dem serverlosen SQL-Pool synchronisiert werden, kommt es zu einer kleinen Verzögerung bei der Anzeige.

Verwalten einer von Spark erstellten Tabelle

Verwalten Sie von Spark erstellte Datenbanken mithilfe von Spark. Löschen Sie sie beispielsweise über einen Auftrag für serverlose Apache Spark-Pools, und erstellen Sie Tabellen in der Datenbank über Spark.

Objekte in synchronisierten Datenbanken können nicht über einen serverlosen SQL-Pool geändert werden.

Verfügbarmachen einer Spark-Tabelle in SQL

Gemeinsam genutzte Spark-Tabellen

In Spark stehen zwei Arten von Tabellen zur Verfügung, die von Azure Synapse automatisch in SQL verfügbar gemacht werden:

  • Verwaltete Tabellen

    Spark bietet zahlreiche Optionen für die Speicherung von Daten in verwalteten Tabellen. Hierzu zählen beispielsweise TEXT, CSV, JSON, JDBC, PARQUET, ORC, HIVE, DELTA und LIBSVM. Diese Dateien werden für gewöhnlich im Verzeichnis warehouse gespeichert, in dem die Daten der verwalteten Tabelle gespeichert werden.

  • Externe Tabellen

    Spark ermöglicht auch die Erstellung externer Tabellen auf der Grundlage vorhandener Daten – entweder durch Angabe der Option LOCATIONoder durch Verwendung des Hive-Formats. Solche externen Tabellen können auf einer Vielzahl von Datenformaten basieren (einschließlich Parquet).

Azure Synapse gibt aktuell nur verwaltete und externe Spark-Tabellen mit im Parquet-, DELTA- oder CSV-Format gespeicherten Daten für die SQL-Engines frei. Auf anderen Formaten basierende Tabellen werden nicht automatisch synchronisiert. Sie können solche Tabellen explizit selbst als externe Tabelle in Ihrer eigenen SQL-Datenbank synchronisieren, sofern die SQL-Engine das zugrunde liegende Format der Tabelle unterstützt.

Hinweis

Derzeit werden nur Parquet- und CSV-Formate im serverlosen SQL-Pool vollständig unterstützt. Spark Delta-Tabellen sind im serverlosen SQL-Pool ebenfalls verfügbar, aber dieses Feature befindet sich in der öffentlichen Vorschau. Externe Tabellen, die in Spark erstellt wurden, sind in Datenbanken dedizierter SQL-Pools nicht verfügbar.

Gemeinsames Nutzen von Spark-Tabellen

Die gemeinsam nutzbaren verwalteten und externen Spark-Tabellen werden in der SQL-Engine als externe Tabellen mit folgenden Eigenschaften verfügbar gemacht:

  • Die Datenquelle der externen SQL-Tabelle ist die Datenquelle, die den Ordner des Spark-Tabellenspeicherorts darstellt.
  • Die externe SQL-Tabelle weist das Parquet-, Delta- oder CSV-Dateiformat auf.
  • Für die Zugriffsanmeldeinformationen der externen SQL-Tabelle wird das Pass-Through-Verfahren verwendet.

Da alle Spark-Tabellennamen gültige SQL-Tabellennamen und alle Spark-Spaltennamen gültige SQL-Spaltennamen sind, werden für die externe SQL-Tabelle die Spark-Tabellennamen und -Spaltennamen verwendet.

Spark-Tabellen bieten andere Datentypen als die SQL-Engines von Synapse. In der folgenden Tabelle werden die Spark-Tabellendatentypen den SQL-Typen zugeordnet:

Spark-Datentyp SQL-Datentyp Kommentare
LongType, long, bigint bigint Spark: LongType stellt 8-Byte-Ganzzahlen mit Vorzeichen dar.
SQL: Siehe int, bigint, smallint und tinyint (Transact-SQL)
BooleanType, boolean bit (Parquet), varchar(6) (CSV) Spark: Boolesch
SQL: Siehe [/sql/t-sql/data-types/bit-transact-sql)
DecimalType, decimal, dec, numeric decimal Spark: DecimalType stellt Dezimalzahlen mit Vorzeichen und variabler Genauigkeit dar. Wird intern durch „java.math.BigDecimal“ unterstützt. Ein BigDecimal-Wert besteht aus einem unskalierten Ganzzahlwert mit variabler Genauigkeit und einer 32-Bit-Ganzzahlskalierung.
SQL: Zahlen mit fester Genauigkeit und mit fester Anzahl von Dezimalstellen. Wenn maximale Genauigkeit verwendet wird, liegen gültige Werte zwischen - 10^38 +1 und 10^38 - 1. Die ISO-Synonyme für decimal lauten dec und dec(p, s) . Die Funktion von numeric ist mit der von decimal identisch. Siehe decimal und numeric (Transact-SQL)
IntegerType, Integer, int int Spark IntegerType stellt 4-Byte-Ganzzahlen mit Vorzeichen dar.
SQL: Siehe int, bigint, smallint und tinyint (Transact-SQL)
ByteType, Byte, tinyint smallint Spark: ByteType stellt 1-Byte-Ganzzahlen mit Vorzeichen [-128 bis 127] dar, und „ShortType“ stellt 2-Byte-Ganzzahlen mit Vorzeichen [-32768 bis 32767] dar.
SQL: „tinyint“ stellt 1-Byte-Ganzzahlen mit Vorzeichen [0, 255] dar, und „smallint“ stellt 2-Byte-Ganzzahlen mit Vorzeichen [-32768, 32767] dar. Siehe int, bigint, smallint und tinyint (Transact-SQL)
ShortType, Short, smallint smallint Wie oben.
DoubleType, Double float Spark: DoubleType stellt Gleitkommazahlen mit doppelter Genauigkeit und 8 Bytes dar. SQL: Siehe float und real (Transact-SQL)
FloatType, float, real real Spark: FloatType stellt Gleitkommazahlen mit doppelter Genauigkeit und 4 Bytes dar. SQL: Siehe float und real (Transact-SQL)
DateType, date date Spark: DateType stellt Werte dar, die sich aus Feldern für Jahr, Monat und Tag ohne Zeitzone zusammensetzen.
SQL: Siehe date (Transact-SQL)
TimestampType, timestamp datetime2 Spark: TimestampType stellt Werte dar, die sich aus Feldern für Jahr, Monat, Tag, Stunde, Minute und Sekunde mit der lokalen Zeitzone der Sitzung zusammensetzen. Der Zeitstempelwert stellt einen absoluten Zeitpunkt dar.
SQL: Siehe datetime2 (Transact-SQL)
char char
StringType, String, varchar Varchar(n) Spark: StringType stellt Zeichenfolgenwerte dar. VarcharType(n) ist eine Variante von StringType, für die eine Längenbeschränkung gilt. Beim Schreiben von Daten tritt ein Fehler auf, wenn die Eingabezeichenfolge die zugelassene Länge überschreitet. Dieser Typ kann nur im Tabellenschema verwendet werden, nicht in Funktionen oder Operatoren.
CharType(n) ist eine Variante von VarcharType(n) mit fester Länge. Beim Lesen der Spalte vom Typ CharType(n) werden immer Zeichenfolgenwerte der Länge n zurückgegeben. Beim Vergleich der Spalte CharType(n) wird die kürzere Zeichenfolge durch Auffüllen an die längere Zeichenfolge angeglichen.
SQL: Wenn von Spark eine Länge bereitgestellt wird, wird n in varchar(n) auf diese Länge festgelegt. Wenn es sich um eine partitionierte Spalte handelt, kann n maximal 2048 sein. Andernfalls wird varchar(max) verwendet. Siehe char und varchar (Transact-SQL)
Verwenden Sie die Angabe mit der Sortierung Latin1_General_100_BIN2_UTF8.
BinaryType, binary varbinary(n) SQL: Wenn von Spark eine Länge bereitgestellt wird, wird n in Varbinary(n) auf diese Länge festgelegt. Wenn es sich um eine partitionierte Spalte handelt, kann n maximal 2048 sein. Andernfalls wird Varbinary(max) verwendet. Siehe binary und varbinary (Transact-SQL)
array, map, struct varchar(max) SQL: Wird mit der Sortierung Latin1_General_100_BIN2_UTF8 in JSON serialisiert. Siehe JSON-Daten in SQL Server

Hinweis

Die Sortierung auf Datenbankebene ist Latin1_General_100_CI_AS_SC_UTF8.

Sicherheitsmodell

Die Spark-Datenbanken und -Tabellen und ihre synchronisierten Darstellungen in der SQL-Engine werden auf der zugrunde liegenden Speicherebene geschützt. Da sie derzeit nicht über Berechtigungen für die eigentlichen Objekte verfügen, können die Objekte im Objekt-Explorer angezeigt werden.

Der Sicherheitsprinzipal, von dem eine verwaltete Tabelle erstellt wird, gilt als Besitzer der Tabelle und verfügt über alle Rechte für die Tabelle sowie für die zugrunde liegenden Ordner und Dateien. Der Besitzer der Datenbank wird zudem automatisch zum Mitbesitzer der Tabelle.

Wenn Sie eine externe Spark- oder SQL-Tabelle mit Passthrough-Authentifizierung erstellen, werden die Daten nur auf der Ordner- und Dateiebene geschützt. Bei einer Abfrage für diese externe Tabelle wird die Sicherheitsidentität des Abfrageübermittlers an das Dateisystem übergeben und auf Zugriffsrechte überprüft.

Weitere Informationen zum Festlegen von Berechtigungen für die Ordner und Dateien finden Sie unter Azure Synapse Analytics: Gemeinsam genutzte Datenbank.

Beispiele

Erstellen einer verwalteten Tabelle in Spark und Ausführen von Abfragen über einen serverlosen SQL-Pool

In diesem Szenario verfügen Sie über eine Spark-Datenbank namens mytestdb. Informationen finden Sie unter Erstellen einer Spark-Datenbank mit einem serverlosen SQL-Pool und Herstellen einer Verbindung mit dieser Datenbank.

Führen Sie den folgenden Befehl aus, um mit SparkSQL eine verwaltete Spark-Tabelle zu erstellen:

    CREATE TABLE mytestdb.myparquettable(id int, name string, birthdate date) USING Parquet

Mit diesem Befehl wird die Tabelle myparquettable in der Datenbank mytestdb erstellt. Tabellennamen werden in Kleinbuchstaben konvertiert. Nach einer kurzen Verzögerung wird die Tabelle aus dem serverlosen SQL-Pool angezeigt. Führen Sie beispielsweise die folgende Anweisung über den serverlosen SQL-Pool aus:

    USE mytestdb;
    SELECT * FROM sys.tables;

Vergewissern Sie sich, dass myparquettable in den Ergebnissen enthalten ist.

Hinweis

Tabellen mit einem anderen Speicherformat als Delta, Parquet oder CSV werden nicht synchronisiert.

Fügen Sie als Nächstes über Spark einige Werte in die Tabelle ein. Verwenden Sie dazu beispielsweise die folgenden C#-Spark-Anweisungen in einem C#-Notebook:

using Microsoft.Spark.Sql.Types;

var data = new List<GenericRow>();

data.Add(new GenericRow(new object[] { 1, "Alice", new Date(2010, 1, 1)}));
data.Add(new GenericRow(new object[] { 2, "Bob", new Date(1990, 1, 1)}));

var schema = new StructType
    (new List<StructField>()
        {
            new StructField("id", new IntegerType()),
            new StructField("name", new StringType()),
            new StructField("birthdate", new DateType())
        }
    );

var df = spark.CreateDataFrame(data, schema);
df.Write().Mode(SaveMode.Append).InsertInto("mytestdb.myparquettable");

Nun können Sie die Daten wie folgt aus dem serverlosen SQL-Pool lesen:

SELECT * FROM mytestdb.myparquettable WHERE name = 'Alice';

Als Ergebnis sollte die folgende Zeile zurückgegeben werden:

id | name | birthdate
---+-------+-----------
1 | Alice | 2010-01-01

Erstellen einer externen Tabelle in Spark und Ausführen von Abfragen über einen serverlosen SQL-Pool

In diesem Beispiel wird eine externe Spark-Tabelle auf der Grundlage der Parquet-Datendateien erstellt, die im vorherigen Beispiel für die verwaltete Tabelle erstellt wurden.

Führen Sie mit SparkSQL beispielsweise Folgendes aus:

CREATE TABLE mytestdb.myexternalparquettable
    USING Parquet
    LOCATION "abfss://<storage-name>.dfs.core.windows.net/<fs>/synapse/workspaces/<synapse_ws>/warehouse/mytestdb.db/myparquettable/"

Ersetzen Sie den Platzhalter <storage-name> durch den verwendeten Namen des ADLS Gen2-Speicherkontos, <fs> durch den verwendeten Dateisystemnamen und den Platzhalter <synapse_ws> durch den Namen des für dieses Beispiel verwendeten Azure Synapse-Arbeitsbereichs.

Im vorherigen Beispiel wurde die Tabelle myextneralparquettable in der Datenbank mytestdb erstellt. Nach einer kurzen Verzögerung wird die Tabelle aus dem serverlosen SQL-Pool angezeigt. Führen Sie beispielsweise die folgende Anweisung über den serverlosen SQL-Pool aus:

USE mytestdb;
SELECT * FROM sys.tables;

Vergewissern Sie sich, dass myexternalparquettable in den Ergebnissen enthalten ist.

Nun können Sie die Daten wie folgt aus dem serverlosen SQL-Pool lesen:

SELECT * FROM mytestdb.dbo.myexternalparquettable WHERE name = 'Alice';

Als Ergebnis sollte die folgende Zeile zurückgegeben werden:

id | name | birthdate
---+-------+-----------
1 | Alice | 2010-01-01

Nächste Schritte

  • Weitere Informationen zu gemeinsam genutzten Metadaten von Azure Synapse Analytics finden Sie hier.
  • Weitere Informationen zu gemeinsam genutzten Azure Synapse Analytics-Datenbanken für Metadaten finden Sie hier.