问题导读
1.Spark读写iceberg表需要哪些配置?
2.Spark开发环境中需要引入哪些包?
3.如何开启hive对iceberg的支持?
1 环境准备
准备大数据集群 .安装HDFS ,HIVE,SAPRK ,FLINK
下载运行集群环境运行是需要的jar包
下载地址:http://iceberg.apache.org/releases/
2 Spark将读写iceberg表中数据
准备spark集群, 并配置iceberg环境
在spark的配置目录中添加hadoop和hive的配置文件 方便spark与hadoop和hive整合
在spark的jars包中添加下载好的iceberg的jar包
2.1 catalog为hadoop
2.1.1 sparksql操作
- spark-sql --packages org.apache.iceberg:iceberg-spark3-runtime:0.10.0 \
- --conf spark.sql.catalog.hadoop_prod=org.apache.iceberg.spark.SparkCatalog \
- --conf spark.sql.catalog.hadoop_prod.type=hadoop \
- --conf spark.sql.catalog.hadoop_prod.warehouse=hdfs://linux01:8020/doit/iceberg/warehouse
复制代码
创建表
- -- 使用系统默认的数据源 会将表生成在默认的本地文件夹中
- spark-sql> create table tb_test1(id int ,name string) using iceberg ;
复制代码
- -- 切换启动SQL脚本是自己设置的数据源hadoop_prod
- use hadoop_prod.default ;
- -- 创建表
- create table tb_test1(id int ,name string) using iceberg ;
复制代码
查看表的位置在HDFS上
插入入数据到iceberg表中
insert into tb_test1 values(1,'马云'),(2,'马蓉'),(3,'马保国') ;
select * from tb_test1 ;
1 马云
2 马蓉
3 马保国
2.1.2 spark shell操作
-- 登录shell客户端
spark-shell --packages org.apache.iceberg:iceberg-spark3-runtime:0.10.0 \
--conf spark.sql.catalog.hadoop_prod=org.apache.iceberg.spark.SparkCatalog \
--conf spark.sql.catalog.hadoop_prod.type=hadoop \
--conf spark.sql.catalog.hadoop_prod.warehouse=hdfs://linux01:8020/doit/iceberg/warehouse
直接读取上面在sparksql中创建的表中的数据
- scala> spark.read.format("iceberg").load("hdfs://linux01:8020//doit/iceberg/warehouse/default/tb_test1").show
- +---+------+
- | id| name|
- +---+------+
- | 1| 马云|
- | 2| 马蓉|
- | 3|马保国|
- +---+------+
复制代码
使用sparkAPI建表和插入数据在后面的API中在详细介绍
2.1.3 IDEA spark项目操作
使用IDEA创建maven项目 , 添加依赖
pom.xml文件
复制代码
- val spark: SparkSession = SparkSession
- .builder()
- .config("spark.sql.catalog.hadoop_prod.type", "hadoop") // 设置数据源类别为hadoop
- .config("spark.sql.catalog.hadoop_prod", classOf[SparkCatalog].getName)
- .config("spark.sql.catalog.hadoop_prod.warehouse", "hdfs://linux01:8020//doit/iceberg/warehouse/") // 设置数据源位置
- .appName(this.getClass.getSimpleName)
- .master("local[*]")
- .getOrCreate()
- // 获取表结构信息
- val df = spark.table("hadoop_prod.default.tb_test1")
- df.printSchema()
- // 读取指定表下的数据
- //spark.read.format("iceberg").load("/doit/iceberg/warehouse/default/tb_test1").show()
- //3372567346381641315
- /**
- * select snapshot_id from hadoop_prod.default.tb_test1.snapshots ;
- * select * from hadoop_prod.default.tb_test1.snapshots ;
- */
- // 读取指定快照下的数据
- spark.read.option("snapshot-id", 3372567346381641315l).format("iceberg").load("/doit/iceberg/warehouse/default/tb_test1").show
-
复制代码
2.2 catalog为hive
spark可以使用sparkshell , sparksql 和idea中创建iceberg表 ,在hive中使用iceberg支持以后可以再hive中对数据进行分析处理 , 但是不能对数据进行修改和创建表等操作 , 也就是说暂且还不支持写操作 !
2.2.1 sparksql操作
spark-sql --packages org.apache.iceberg:iceberg-spark3-runtime:0.10.0 --conf spark.sql.catalog.spark_catalog=org.apache.iceberg.spark.SparkSessionCatalog --conf spark.sql.catalog.spark_catalog.type=hive
-- 在hive中创建iceberg的数据库
create database spark_catalog.hang ;
-- 切换数据源数据库
use spark_catalog.hang ;
-- 创建iceberg表
create table tb_hang(id int , name string) using iceberg ;
在hive的工作目录中查看 出现如下目录 :
向表中插入数据 -----> 在hive客户端查询数据
-- 开启hive对iceberg的支持
SET iceberg.mr.catalog=hive;
set iceberg.engine.hive.enabled=true ;
-- 在hive端查看当前的数据库
show database ;
+----------------+
| database_name |
+----------------+
| db_doit19 |
| db_icer |
| default |
| hang |
+----------------+
切换 数据库
use hang ;
select * from tb_hang ;
+-------------+---------------+
| tb_hang.id | tb_hang.name |
+-------------+---------------+
| 2 | hangge |
| 1 | hang |
+-------------+---------------+
最新经典文章,欢迎关注公众号
原文链接
https://blog.csdn.net/qq_37933018/article/details/110452480
|