desehawk 发表于 2015-6-9 01:26:12

编译CDH Spark源代码

问题导读
1.编译CDH Spark需要哪些步骤?

2.编译CDH Spark的命令是什么?


3.本文如何生成压缩包?

static/image/hrline/4.gif



本文以Cloudera维护的Spark分支项目为例,记录跟新Spark分支以及编译Spark源代码的过程。
下载代码在Github上fork Cloudera维护的Spark项目到自己的github账号里,对应的地址为 https://github.com/javachen/spark 。下载代码:$ git clone https://github.com/javachen/spark

然后,切换到最新的分支,当前为 cdh5-1.3.0_5.4.0。$ cd spark$
git checkout cdh5-1.3.0_5.4.0

查看当前分支: git branch
* cdh5-1.3.0_5.4.0
master


如果spark发布了新的版本,需要同步到我自己维护的spark项目中,可以按以下步骤进行操作:# 添加远程仓库地址
$ git remote add cdh git@github.com:cloudera/spark.git

# 抓取远程仓库更新:
$ git fetch cdh

# 假设cloudera发布了新的版本 cdh/cdh5-1.3.0_5.4.X
$ git checkout -b cdh5-1.3.0_5.4.X cdh/cdh5-1.3.0_5.4.X

# 切换到新下载的分支
$ git checkout cdh5-1.3.0_5.4.X

# 将其提交到自己的远程仓库:
$ git push origin cdh5-1.3.0_5.4.X:cdh5-1.3.0_5.4.X



编译

安装 zinc在mac上安装zinc:$ brew install zinc

使用maven编译指定hadoop版本为2.6.0-cdh5.4.0,并集成yarn和hive:$ export MAVEN_OPTS="-Xmx2g -XX:MaxPermSize=512M -XX:ReservedCodeCacheSize=512m"
$ mvn -Pyarn -Dhadoop.version=2.6.0-cdh5.4.0 -Phive -DskipTests clean package

在CDH的spark中,要想集成hive-thriftserver进行编译,需要修改 pom.xml 文件,添加一行 sql/hive-thriftserver:
<modules>
    <module>core</module>
    <module>bagel</module>
    <module>graphx</module>
    <module>mllib</module>
    <module>tools</module>
    <module>streaming</module>
    <module>sql/catalyst</module>
    <module>sql/core</module>
    <module>sql/hive</module>
    <module>sql/hive-thriftserver</module> <!--添加的一行-->
    <module>repl</module>
    <module>assembly</module>
    <module>external/twitter</module>
    <module>external/kafka</module>
    <module>external/flume</module>
    <module>external/flume-sink</module>
    <module>external/zeromq</module>
    <module>external/mqtt</module>
    <module>examples</module>
</modules>

然后,再执行:$ export MAVEN_OPTS="-Xmx2g -XX:MaxPermSize=512M -XX:ReservedCodeCacheSize=512m"
$ mvn -Pyarn -Dhadoop.version=2.6.0-cdh5.4.0 -Phive -Phive-thriftserver -DskipTests clean package


运行测试用例:$ mvn -Pyarn -Dhadoop.version=2.6.0-cdh5.4.0 -Phivetest
运行java8测试:$ mvn install -DskipTests -Pjava8-tests

使用sbt编译
$ build/sbt -Pyarn -Dhadoop.version=2.6.0-cdh5.4.0 -Phive assembly

生成压缩包
$ ./make-distribution.sh

排错
[*]Unable to find configuration file at location scalastyle-config.xml 异常
在idea中使用maven对examples模块运行package或者install命令会出现Unable to find configuration file at location scalastyle-config.xml异常,解决办法是将根目录下的scalastyle-config.xml拷贝到examples目录下去,这是因为pom.xml中定义的是scalastyle-maven-plugin插件从maven运行的当前目录查找该文件。<plugin>
    <groupId>org.scalastyle</groupId>
    <artifactId>scalastyle-maven-plugin</artifactId>
    <version>0.4.0</version>
    <configuration>
      <verbose>false</verbose>
      <failOnViolation>true</failOnViolation>
      <includeTestSourceDirectory>false</includeTestSourceDirectory>
      <failOnWarning>false</failOnWarning>
      <sourceDirectory>${basedir}/src/main/scala</sourceDirectory>
      <testSourceDirectory>${basedir}/src/test/scala</testSourceDirectory>
      <configLocation>scalastyle-config.xml</configLocation>
      <outputFile>scalastyle-output.xml</outputFile>
      <outputEncoding>UTF-8</outputEncoding>
    </configuration>
    <executions>
      <execution>
      <phase>package</phase>
      <goals>
          <goal>check</goal>
      </goals>
      </execution>
    </executions>
</plugin>


参考
[*]Building Spark





dwshmilyss 发表于 2015-6-9 09:56:53

学习了,不错不错

senlindeguo 发表于 2015-12-7 18:23:13

楼主:我编译CDH5.4.8下的spark报错了,请教下这个问题怎么解决?
我下载编译的是http://archive.cloudera.com/cdh5/cdh/5/spark-1.3.0-cdh5.4.0-src.tar.gz
Failed to execute goal net.alchim31.maven:scala-maven-plugin:3.2.0:compile (scala-compile-first) on project spark-network-common_2.10: Execution scala-compile-first of goal net.alchim31.maven:scala-maven-plugin:3.2.0:compile failed. CompileFailed ->

jixianqiuxue 发表于 2015-12-7 21:17:41

senlindeguo 发表于 2015-12-7 18:23
楼主:我编译CDH5.4.8下的spark报错了,请教下这个问题怎么解决?
我下载编译的是http://archive.cloudera ...

先检查maven是否正确安装,版本是否正确。最后检查下网络,可能国外网络不好,最好多编译几次
页: [1]
查看完整版本: 编译CDH Spark源代码