Delen via


Hive-tabel (verouderd)

Belangrijk

Deze documentatie is buiten gebruik gesteld en wordt mogelijk niet bijgewerkt.

In dit artikel wordt beschreven hoe u een Hive-tabel importeert uit cloudopslag in Azure Databricks met behulp van een externe tabel.

Databricks raadt het gebruik van Hive-tabellen niet aan voor het opslaan of ordenen van gegevens. Deze documentatie wordt gegeven om u te helpen bij het configureren van een verbinding met een bestaande Hive-tabel om gegevens van een extern systeem te migreren of op te nemen.

Stap 1: de CREATE TABLE instructie weergeven

Geef een SHOW CREATE TABLE <tablename> opdracht uit op de Hive-opdrachtregel om de instructie te zien die de tabel heeft gemaakt.

hive> SHOW CREATE TABLE wikicc;
OK
CREATE  TABLE `wikicc`(
  `country` string,
  `count` int)
ROW FORMAT SERDE
  'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
STORED AS INPUTFORMAT
  'org.apache.hadoop.mapred.TextInputFormat'
OUTPUTFORMAT
  'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
  '<path-to-table>'
TBLPROPERTIES (
  'totalSize'='2335',
  'numRows'='240',
  'rawDataSize'='2095',
  'COLUMN_STATS_ACCURATE'='true',
  'numFiles'='1',
  'transient_lastDdlTime'='1418173653')

Stap 2: een CREATE EXTERNAL TABLE instructie uitgeven

Als de geretourneerde instructie een CREATE TABLE opdracht gebruikt, kopieert u de instructie en vervangt u deze door CREATE TABLE CREATE EXTERNAL TABLE.

  • EXTERNAL zorgt ervoor dat Spark SQL uw gegevens niet verwijdert als u de tabel verwijdert.
  • U kunt het TBLPROPERTIES veld weglaten.
DROP TABLE wikicc
CREATE EXTERNAL TABLE `wikicc`(
  `country` string,
  `count` int)
ROW FORMAT SERDE
  'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
STORED AS INPUTFORMAT
  'org.apache.hadoop.mapred.TextInputFormat'
OUTPUTFORMAT
  'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
  '<path-to-table>'

Stap 3: SQL-opdrachten voor uw gegevens uitgeven

SELECT * FROM wikicc