Spark - 使用SparkSQL将数据写入Hive表详解1(使用inserInto()方法)
作者:hangge | 2024-07-17 08:31
在之前的文章中,我介绍了如何在 SparkSQL 中集成 Hive 并查询 Hive 表中的数据(点击查看)。实际工作中,我们不仅需要查询数据并计算结果,还希望将结果数据写入 Hive 表中。通常来说,向 Hive 表中写入数据有如下 3 种方法。
(2)然后给表中添加一些初始数据:
(2)查看这个表的数据也是都有的:
(3)最后到 HDFS 中确认一下数据文件里面的内容:
- 第一种:使用 inserInto() 方法。
- 第二种:使用 saveAsTable() 方法。
- 第三种:使用 SparkSQL 语句。
其中第二种不推荐使用,最常用的是第三种,用起来比较方便。接下来我将依次详细介绍这三种方法,本文首先介绍第一种使用 inserInto() 方法。
一、使用 inserInto() 方法写入Hive表数据
1,准备工作
(1)首先我们在 hive 中创建一张 student 表:
create table student ( id int, stu_name string, stu_birthday date, online boolean ) row format delimited fields terminated by '\t' lines terminated by '\n';
(2)然后给表中添加一些初始数据:
load data local inpath '/usr/local/student.txt' into table student;
2,编写代码
(1)首先我们的项目要做好 Hive 的集成配置,具体可以参考我之前写的文章:
(2)接着我们编写如下测试代码,用于通过 SparkSQL 从 Hive 的 student 表查询数据并将其写入到另一个 Hive 表 student_bak。同时在写入前会创建目标表 student_bak(如果不存在),并指定数据写入模式为覆盖。
(1)使用 inserInto() 方法写入 hive 表数据需要满足 2 个条件:
- 写入的 Hive 表是存在的(可以在 Hive 中建表,或者通过 SparkSQL 建表,官方建议在 Hive 中建表!)
- DataFrame 数据的 Schema 结构顺序和写入的 Hive 表的 Schema 结构顺序是一样的
(2)通过 SparkSQL 创建 Hive 表时,如果想指定存储格式等参数(默认 TextFile),必须使用 using hive
- 这样指定是无效的:create table t1(id int) OPTIONS(fileFormat 'parquet')
- 这样才是有效的:create table t1(id int) using hive OPTIONS(fileFormat 'parquet')
- create table t1(id int) 等于 create table t1(id int) using hive OPTIONS(fileFormat 'textfile')
import org.apache.spark.SparkConf import org.apache.spark.sql.SparkSession object SparkSQLWriteHive_1 { def main(args: Array[String]): Unit = { val conf = new SparkConf() .setMaster("local") //获取SparkSession,为了操作SparkSQL val sparkSession = SparkSession .builder() .appName("SparkSQLWriteHive_1") .config(conf) //开启对Hive的支持,支持连接Hive的MetaStore、Hive的序列化、Hive的自定义函数 .enableHiveSupport() .getOrCreate() import sparkSession.sql //查询数据 val resDf = sql("select * from student") //创建目标表 sql( """ |create table if not exists student_bak( | id int, | stu_name string, | stu_birthday date, | online boolean |)using hive | OPTIONS( | fileFormat 'textfile', | fieldDelim '\t' | ) |""".stripMargin) //写入数据 resDf.write //指定数据写入格式append:追加。overwrite:覆盖。 .mode("overwrite") //这里需要指定数据格式: parquet, orc, avro(需要添加外部依赖包), json, csv, text。 //不指定的话默认是parquet格式。 //针对insertInto而言,因为它是向一个已存在的表中写入数据,所以format参数和option参数会被忽略。 //.format("text") .insertInto("student_bak") sparkSession.stop() } }
3,运行测试
(1)上面代码运行后,我们可以到到 Hive 中查看目标表的详细信息:
show create table student_bak;
(2)查看这个表的数据也是都有的:
select * from student_bak;
(3)最后到 HDFS 中确认一下数据文件里面的内容:
hdfs dfs -cat /user/hive/warehouse/student_bak/*
全部评论(0)