鄙人环境如下:
1台64位win7操作系统;
vmware安装1台ubuntu64位
我在这台机子上安装了伪分布式的Hadoop2.6环境和spark1.4伪分布式环境,其中spark配置文件spark-env.sh的配置如下:
Hadoop,spark启动正常
然后测试 spark-shell --master spark://Master:8070可以正常启动,运行。
测试spark-submit --master local ...... 我用master指定local运行自己的jar程序没有问题,但是我用master 指定 spark://Master:8070,运行就出问题了如图:
提示: WARN scheduler.TaskSchedulerImpl: Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources
资源不够。可是内存4G,spark2G,运行一个很小wordcount的小文件demo都会出现这样的问题。请各位大侠指点,困惑了好几天了。拜托了!!!