Spark基础学习笔记27:Spark SQL数据源 - Hive表

举报
howard2005 发表于 2022/05/13 22:39:21 2022/05/13
【摘要】 文章目录 零、本讲学习目标一、Spark SQL支持读写Hive二、Spark配置hive-site.xml三、准备工作(一)启动Hive的metastore(二)启动Spark Shell ...

零、本讲学习目标

  1. 掌握如何读取Hive表中的数据
  2. 掌握如何将数据写入到Hive表

一、Spark SQL支持读写Hive

  • Spark SQL还支持读取和写入存储在Apache Hive中的数据。然而,由于Hive有大量依赖项,这些依赖项不包括在默认的Spark发行版中,如果在classpath上配置了这些Hive依赖项,Spark就会自动加载它们。需要注意的是,这些Hive依赖项必须出现在所有Worker节点上,因为它们需要访问Hive序列化和反序列化库(SerDes),以便访问存储在Hive中的数据。
  • 在使用Hive时,必须实例化一个支持Hive的SparkSession对象。若系统中没有部署Hive,则仍然可以启用Hive支持(Spark SQL充当Hive查询引擎)。Spark对Hive的支持包括连接到持久化的Hive元数据库、Hive SerDe、Hive用户定义函数、HiveQL等。如果没有配置hive-site.xml文件,Spark应用程序启动时,就会自动在当前目录中创建Derby元数据库metastore_db,并创建一个由spark.sql.warehouse.dir指定的数据仓库目录(若不指定,则默认启动Spark应用程序当前目录中的spark-warehouse目录)。需要注意的是,从Spark2.0.0版本开始,hive-site.xml中的hive.metastore.warehouse.dir属性不再使用了,代替的是使用spark.sql.warehouse.dir指定默认的数据仓库目录。

二、Spark配置hive-site.xml

  • 将Hive配置文件hive-site.xml拷贝到Spark配置目录,执行命令:cp $HIVE_HOME/conf/hive-site.xml $SPARK_HOME/conf
    在这里插入图片描述
  • 进入Spark配置目录,编辑Hive配置文件hive-site.xml
    在这里插入图片描述
    在这里插入图片描述
<property>
    <name>spark.sql.warehouse.dir</name>     
    <value>/user/spark/warehouse</value>
</property>

  
 
  • 1
  • 2
  • 3
  • 4

三、准备工作

  • 先要启动HDFS和Spark

(一)启动Hive的metastore

  • 执行命令:hive --service metastore &
    在这里插入图片描述

(二)启动Spark Shell

  • 执行命令:spark-shell --master spark://master:7077
    在这里插入图片描述

四、Spark读写Hive数据

(一)导入SparkSession

  • 执行命令:import org.apache.spark.sql.SparkSession
    在这里插入图片描述

(二)创建SparkSession对象

val spark = SparkSession.builder()
   .appName("Spark Hive Demo")
   .enableHiveSupport()   // 开启Hive支持  
   .getOrCreate()

  
 
  • 1
  • 2
  • 3
  • 4
  • 执行上述命令
    在这里插入图片描述

(三)执行HiveQL语句

  • 调用SparkSession对象的sql()方法可以传入需要执行的HiveQL语句。

1、创建Hive表

  • 创建一张Hive表student,并指定字段分隔符为半角逗号“,”,执行命令:spark.sql("CREATE TABLE IF NOT EXISTS student(id INT, name STRING, gender STRING, age INT) ROW FORMAT DELIMITED FIELDS TERMINATED BY ','")
    在这里插入图片描述

2、导入本地数据到Hive表

  • 查看本地文件/home/student.txt的内容
    在这里插入图片描述
  • 将该文件数据导入表student中,执行命令:spark.sql("LOAD DATA LOCAL INPATH '/home/student.txt' INTO TABLE student")
    在这里插入图片描述
  • 这个报错是hdfs客户端的一个bug,但并不影响作业正常运行,且在2.8版本之后已经修复

3、查询Hive表数据

  • 查询表student的数据并显示到控制台,执行命令:spark.sql("SELECT * FROM student").show()
    在这里插入图片描述
  • 按性别分组统计平均年龄,执行命令:spark.sql("SELECT gender, AVG(age) FROM student GROUP BY gender").show()
    在这里插入图片描述

4、创建表时指定存储格式

  • 创建一个Hive表test,数据存储格式为Parquet(默认为普通文本格式),执行命令:spark.sql("CREATE TABLE test (name STRING, age INT) STORED AS PARQUET")
    在这里插入图片描述

5、将数据帧数据写入Hive表

  • 使用saveAsTable()方法可以将数据帧数据写入指定的Hive表中。
  • 加载student表数据得到数据帧
    在这里插入图片描述
  • 导入SaveMode类,执行命令:import org.apache.spark.sql.SaveMode
    在这里插入图片描述
  • 将数据帧数据写入hive表,执行命令:studentDF.select("name", "age").write.mode(SaveMode.Overwrite).saveAsTable("test")
    在这里插入图片描述
  • 查询test表数据,执行命令:spark.sql("select * from test").show()
    在这里插入图片描述

6、导入HDFS数据到Hive表

  • 查看HDFS文件/input/student.txt的内容
    在这里插入图片描述
  • 创建Hive表student1,执行命令:spark.sql("CREATE TABLE IF NOT EXISTS student1 (id INT, name STRING, gender STRING, age INT) ROW FORMAT DELIMITED FIELDS TERMINATED BY ','")
    在这里插入图片描述
  • 将该文件数据导入表student1中,执行命令:spark.sql("LOAD DATA INPATH 'hdfs://master:9000/input/student.txt' INTO TABLE student1")
    在这里插入图片描述
  • 查看表student1的内容,执行命令:spark.table("student1").show()
    在这里插入图片描述

(四)在Hive客户端查看生成的hive表

  • 查看三张表:student,student1test 在这里插入图片描述

文章来源: howard2005.blog.csdn.net,作者:howard2005,版权归原作者所有,如需转载,请联系作者。

原文链接:howard2005.blog.csdn.net/article/details/124725211

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。