Hive-Tabelle (Legacy)
Wichtig
Diese Dokumentation wurde eingestellt und wird unter Umständen nicht aktualisiert.
In diesem Artikel erfahren Sie, wie Sie eine Hive-Tabelle mithilfe einer externen Tabelle aus dem Cloudspeicher in Azure Databricks importieren können.
Databricks empfiehlt die Verwendung von Hive-Tabellen zum Speichern oder Organisieren von Daten nicht. Diese Dokumentation wird bereitgestellt, um Ihnen bei der Konfiguration einer Verbindung mit einer vorhandenen Hive-Tabelle zu helfen, um Daten aus einem externen System zu migrieren oder zu erfassen.
Schritt 1: Anzeigen der CREATE TABLE
-Anweisung
Verwenden Sie einen SHOW CREATE TABLE <tablename>
-Befehl in der Hive-Befehlszeile, um die Anweisung anzuzeigen, die die Tabelle erstellt hat.
hive> SHOW CREATE TABLE wikicc;
OK
CREATE TABLE `wikicc`(
`country` string,
`count` int)
ROW FORMAT SERDE
'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
STORED AS INPUTFORMAT
'org.apache.hadoop.mapred.TextInputFormat'
OUTPUTFORMAT
'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
'<path-to-table>'
TBLPROPERTIES (
'totalSize'='2335',
'numRows'='240',
'rawDataSize'='2095',
'COLUMN_STATS_ACCURATE'='true',
'numFiles'='1',
'transient_lastDdlTime'='1418173653')
Schritt 2: Ausstellen einer CREATE EXTERNAL TABLE
-Anweisung
Wenn die zurückgegebene Anweisung einen CREATE TABLE
-Befehl verwendet, kopieren Sie die Anweisung und ersetzen Sie CREATE TABLE
durch CREATE EXTERNAL TABLE
.
EXTERNAL
stellt sicher, dass Spark SQL Ihre Daten nicht löscht, wenn Sie die Tabelle löschen.- Sie können das
TBLPROPERTIES
-Feld auslassen.
DROP TABLE wikicc
CREATE EXTERNAL TABLE `wikicc`(
`country` string,
`count` int)
ROW FORMAT SERDE
'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
STORED AS INPUTFORMAT
'org.apache.hadoop.mapred.TextInputFormat'
OUTPUTFORMAT
'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
'<path-to-table>'
Schritt 3: SQL-Befehle für Ihre Daten ausführen
SELECT * FROM wikicc