本帖最后由 yuwenge 于 2018-5-5 21:28 编辑
描述:里面介绍各个组件的例子,包括hbase,kafka,solr,spark等
详细如下:
.idea 增加访问Solr集群代码
azkaban-demo/command Azkaban Command示例
generatedata flume写数据到solr
hbasedemo 使用Java将图片生成sequence file并保存到HBase
hdfsdemo Java使用HttpClient访问启用SSL的HttpFS服务
impala-tpcds 新增Impala tpcds测试脚本及99条基准测试SQL
jdbcdemo 1.增加JDBC连接启用Sentry并集成LDAP的HiveServer2
kafkademo 添加读本地文件封装json数据并写入kafka,对应微信公众号的《如何使用StreamSets实时采集Kafka并入库Kudu》
livydemo 删除无用的文件
mrdemo 如何使用java命令向CDH集群提交MapReduce作业,增加run脚本
ooziedemo 增加通过Oozie API接口向Kerberos环境提交Shell作业
samldemo 新增Oozie API接口向
solrdemo HDFS访问示例
sparkdemo SparkStreaming通过自定义Receiver读取HBase将数据写入HDFS
yarndemo/lib 添加访问Kerberos环境下Livy RESTful API接口示例
cdhproject.iml hadoop各组件使用,持续更新
pom.xml 新增Oozie API接口向
从入门到精通-Fayson带你玩转CDH.png 从入门到精通 - Fayson带你玩转CDH
地址:
https://github.com/fayson/cdhproject
|
|