谢谢分享 |
不错感谢分享! |
赞楼主 |
楼主 请问这个spark-assembly-0.8.1-incubating-hadoop2.2.0.jar 在哪里呢 找不到啊 ,wordcount不能运行哎。代码中sparkcontext 报错。 |
刚果 发表于 2015-4-21 22:34 你可以将spark-assmbly包里面的scala目录删了,这就不会报有重复文件了,在打包的时候选不了main就不选,直接打包,然后手动去给jar包里面的MANIFEST.MF文件增加一个Main-Class: WordCount,这样就可以运行了:java -Xbootclasspath/a:spark-assembly-hadoop2.2.0.jar -jar WordCount.jar |
guxingyu 发表于 2015-3-27 16:00 我也是,我都无语了,这篇文章到底怎么写出来的? 不引入spark-assmbly包的话,wordcount程序import那里报错; 引入spark-assmbly包的话,工程出现红叉,并提示有两个scala编译路径,根本没法运行(提示找不到main方法),此时要是强行打包jar,运行还是会出错(提示找不到main) |
楼主,我打成jar包是,选那个Main运行类的时候,由于scala选不到那个,导致不能打成jar包,不知道这个错误怎么解决啊 |