Hive快速入门系列(9) | Hive表中数据的加载与导出

举报
不温卜火 发表于 2020/12/03 00:13:29 2020/12/03
【摘要】   本次博主为大家带来的是Hive表中数据的加载与导出。希望能够帮助到大家。 目录 一. Hive表中加载数据1.1 直接向分区表中插入数据1.2 通过查询插入数据1.3 多插入模式1.4 查询语句中创建表并加载数据(as select)1.5 创建表时通过location指定加载数据路径 二. Hive表中的数据导出(了解就行)2.1 insert导出2...

  本次博主为大家带来的是Hive表中数据的加载与导出。希望能够帮助到大家。


一. Hive表中加载数据

1.1 直接向分区表中插入数据

create table score3 like score;

insert into table score3 partition(month ='201807') values ('001','002','100');


  
 
  • 1
  • 2
  • 3
  • 4

1.2 通过查询插入数据

  • 1. 通过load方式加载数据
(linux) load data local inpath ‘/export/servers/hivedatas/score.csv’ overwrite into table score partition(month=201806);

(HDFS) load data inpath ‘/export/servers/hivedatas/score.csv’ overwrite into table score
partition(month=201806);


  
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 2. 通过查询方式加载数据
create table score4 like score;
insert overwrite table score4 partition(month = '201806') select s_id,c_id,s_score from score;

  
 
  • 1
  • 2

关键字overwrite 必须要有

1.3 多插入模式

常用于实际生产环境当中,将一张表拆开成两部分或者多部分

  • 1. 给score表加载数据
load data local inpath '/export/servers/hivedatas/score.csv' overwrite into table score partition(month='201806');

  
 
  • 1
  • 2. 创建第一部分表:
create table score_first( s_id string,c_id  string) partitioned by (month string) row format delimited fields terminated by '\t' ;

  
 
  • 1
  • 3. 创建第二部分表:
create table score_second(c_id string,s_score int) partitioned by (month string) row format delimited fields terminated by '\t';

  
 
  • 1
  • 4. 分别给第一部分与第二部分表加载数据
from score insert overwrite table score_first partition(month='201806') select s_id,c_id insert overwrite table score_second partition(month = '201806')  select c_id,s_score;	

  
 
  • 1

1

1.4 查询语句中创建表并加载数据(as select)

将查询的结果保存到一张表当中去

create table score5 as select * from score;

  
 
  • 1

1.5 创建表时通过location指定加载数据路径

  • 1. 创建表,并指定在hdfs上的位置
create external table score6 (s_id string,c_id string,s_score int) row format delimited fields terminated by '\t' location '/myscore6';

  
 
  • 1
  • 2. 上传数据到hdfs上
	hdfs dfs -mkdir -p /myscore6
	hdfs dfs -put score.csv /myscore6;


  
 
  • 1
  • 2
  • 3
  • 3. 查询数据
select * from score6;

  
 
  • 1

二. Hive表中的数据导出(了解就行)

  将hive表中的数据导出到其他任意目录,例如linux本地磁盘,例如hdfs,例如mysql等等

2.1 insert导出

  • 1. 将查询的结果导出到本地
insert overwrite local directory '/export/servers/exporthive' select * from score;

  
 
  • 1
  • 2. 将查询的结果格式化导出到本地
insert overwrite local directory '/export/servers/exporthive' row format delimited fields terminated by '\t' collection items terminated by '#' select * from student;

  
 
  • 1
  • 3. 将查询的结果导出到HDFS上(没有local)
insert overwrite directory '/export/servers/exporthive' row format delimited fields terminated by '\t' collection items terminated by '#' select * from score;

  
 
  • 1

2.2 Hadoop命令导出到本地

dfs -get /export/servers/exporthive/000000_0 /export/servers/exporthive/local.txt;

  
 
  • 1

2

2.3 hive shell 命令导出

基本语法:(hive -f/-e 执行语句或者脚本 > file)

bin/hive -e "select * from myhive.score;" > /export/servers/exporthive/score.txt

  
 
  • 1

3

2.4 export导出到HDFS上(全表导出)

export table score to '/export/exporthive/score';

  
 
  • 1

4

三. 清空表数据

只能清空管理表,也就是内部表

truncate table score6;

  
 
  • 1

清空这个表会报错

本次的分享就到这里了,


11

   看 完 就 赞 , 养 成 习 惯 ! ! ! \color{#FF0000}{看完就赞,养成习惯!!!} ^ _ ^ ❤️ ❤️ ❤️
  码字不易,大家的支持就是我坚持下去的动力。点赞后不要忘了关注我哦!

文章来源: buwenbuhuo.blog.csdn.net,作者:不温卜火,版权归原作者所有,如需转载,请联系作者。

原文链接:buwenbuhuo.blog.csdn.net/article/details/105846565

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。