关于 Spark 编译遇到的问题
本人的 spark 版本为1.4.1 ,hadoop 版本为 2.5.0-cdh5.3.2 。现在编译的遇到的错误情况如下:编译语句为:./make-distribution.sh --name cdh5.3.2 --skip-java-test --tgz -Pyarn -Dhadoop.version=2.5.0-cdh5.3.2-Dscala-2.10.4 -Phive -Phive-thriftserver
不断的编译,还是错误,不知道怎么解决。
还有在最开始编译的时候,还有这样的提示:
这个主要说的是什么意思?
知道的,帮忙解答下,谢谢
是不是版兼容的问题
arsenduan 发表于 2015-10-23 15:04
是不是版兼容的问题
请问你说的版本兼容问题是指:spark 和 hadoop 吗?如果是的话,我可以肯定的是,不会是这个问题的。因为我看网上貌似已经有成功的,但是我按照他的步骤(其实也就一个命令),就出现这个问题了
java path未设置好,设置好了就ok了
NEOGX 发表于 2015-10-23 16:33
java path未设置好,设置好了就ok了
JAVA PATH 配置没问题啊,能显示 JAVA_HOME 以及 java -version
java是否有多个版本
Java和Javac版主是否一致
arsenduan 发表于 2015-10-23 20:24
java是否有多个版本
Java和Javac版主是否一致
先对楼上各位的热心解答表示感谢。
我机子上有自带的 open-jdk1.7.0,在不卸载的基础上,我安装了 oracle-jdk-1.7.0 。
现在的 java 和 javac 的版本是一致的,如下图:
关键我看了我最原始的问题(第二张图),怎么感觉建议用 JDK 6???
从目前看,问题已经解决了,自己结贴了~ 谢谢各位的热心回答
页:
[1]