如何查看spark与hadoop、kafka、Scala、flume、hive等兼容版本【适用于任何版本】

查看数: 75155 | 评论数: 3 | 收藏 3
关灯 | 提示:支持键盘翻页<-左 右->
    组图打开中,请稍候......
发布时间: 2017-11-4 15:37

正文摘要:

问题导读 1.通过什么途径,可以查看与spark兼容的组件版本? 2.如何获取pom文件? 3.pom文件中包含了哪些信息? 4.spark编译通过什么参数可以指定hadoop版本? 当我们安装spark的时候,很多时候都 ...

回复

若无梦何远方 发表于 2019-8-29 21:04:55
上官网
找对应的Source
然后下载
hello2018 发表于 2018-5-4 16:02:59
补充信息:
如果想下载任何一个spark版本查看兼容信息
比如spark1.6的源码
需要经过下面三个步骤:

第一步:找到对应版本spark1.6
1.png


第二步:找到source code
2.png

第三步:下载

3.png

就可以获取源码了的pom.xml文件了




美丽天空 发表于 2017-11-6 09:24:29
感谢分享
关闭

推荐上一条 /2 下一条