分享

Flink案例开发之数据清洗、数据报表展现

2020-09-01_161521.jpg
2020-09-01_161540.jpg

链接: https://pan.baidu.com/s/184-ycG0bdVxp4FjjMNdhPg 提取码: 9mad
FlinkProj 案例开发应用场景:
  • 数据清洗【实时ETL】
  • 数据报表

1、数据清洗【实时ETL】
2020-09-01_160839.jpg

1.1、需求分析针对算法产生的日志数据进行清洗拆分
  • 算法产生的日志数据是嵌套大JSON格式(json嵌套json),需要拆分打平
  • 针对算法中的国家字段进行大区转换
  • 最后把不同类型的日志数据分别进行存储
1.2、数据清理 DataClean 结构
2020-09-01_160917.jpg

1.3、实践运行1.3.1、Redis启动redis:

1.先从一个终端启动redis服务./redis-server
2020-09-01_160956.jpg

2. 先从一个终端启动redis客户端,并插入数据
  1. ./redis-cli
  2. 127.0.0.1:6379> hset areas   AREA_US   US
  3. (integer) 1
  4. 127.0.0.1:6379> hset areas   AREA_CT   TW,HK
  5. (integer) 1
  6. 127.0.0.1:6379> hset areas   AREA_AR   PK,SA,KW
  7. (integer) 1
  8. 127.0.0.1:6379> hset areas   AREA_IN   IN
  9. (integer) 1
  10. 127.0.0.1:6379>
复制代码

1.3.2、Kafka启动kafka:
  1. ./kafka-server-start.sh -daemon ../config/server.properties
复制代码

kafka创建topc:
  1. ./kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 5 --topic allData
复制代码


监控kafka topic:
  1. ./kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic allDataClean
复制代码


2020-09-01_161039.jpg

1.3.3、启动程序
先启动 DataClean 程序,再启动生产者程序,kafka生产者产生数据如下:

2020-09-01_161127.jpg

2020-09-01_161154.jpg

只有部分数据正确处理输出的原因是:代码中没有设置并行度,默认是按机器CPU核数跑的,这里需要通过 broadcast() 进行广播

1.4、Flink yarn集群启动向yarn提交任务:
  1. ./bin/flink run -m yarn-cluster -yn 2 -yjm 1024 -ytm 1024 -c henry.flink.DataClean /root/flinkCode/DataClean-1.0-SNAPSHOT-jar-with-dependencies.jar
复制代码


2020-09-01_161242.jpg

2020-09-01_161309.jpg

监控topic消费情况:
  1. ./kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic allDataClean
复制代码

最终终端输出结果, 同IDEA中运行结果:

2020-09-01_161339.jpg

作者:HenryBao91
来源:https://github.com/HenryBao91/FlinkProj



没找到任何评论,期待你打破沉寂

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条