Compartir a través de


Tabla de Hive

En este artículo se muestra cómo importar una tabla de Hive desde el almacenamiento en la nube a Azure Databricks mediante una tabla externa.

Paso 1: Visualización de la instrucción CREATE TABLE

Emita un comando SHOW CREATE TABLE <tablename> en la línea de comandos de Hive para ver la instrucción que creó la tabla.

hive> SHOW CREATE TABLE wikicc;
OK
CREATE  TABLE `wikicc`(
  `country` string,
  `count` int)
ROW FORMAT SERDE
  'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
STORED AS INPUTFORMAT
  'org.apache.hadoop.mapred.TextInputFormat'
OUTPUTFORMAT
  'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
  '<path-to-table>'
TBLPROPERTIES (
  'totalSize'='2335',
  'numRows'='240',
  'rawDataSize'='2095',
  'COLUMN_STATS_ACCURATE'='true',
  'numFiles'='1',
  'transient_lastDdlTime'='1418173653')

Paso 2: Emisión de una instrucción CREATE EXTERNAL TABLE

Si la instrucción que se devuelve usa un comando CREATE TABLE, copie la instrucción y reemplace CREATE TABLE por CREATE EXTERNAL TABLE.

  • EXTERNAL garantiza que Spark SQL no elimina los datos si se anula la tabla.
  • Puede omitir el campo TBLPROPERTIES.
DROP TABLE wikicc
CREATE EXTERNAL TABLE `wikicc`(
  `country` string,
  `count` int)
ROW FORMAT SERDE
  'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
STORED AS INPUTFORMAT
  'org.apache.hadoop.mapred.TextInputFormat'
OUTPUTFORMAT
  'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
  '<path-to-table>'

Paso 3: Emisión de comandos SQL en los datos

SELECT * FROM wikicc