分享

Spark找不到 work进程?

烦请关注,指导,谢谢!我用CDH9.2版本装了spark内核,集群启动后,再启动spark-shell后,在mater中jps,和node1中jps如图。
请问为什么没有work进程,但是确能使用sqlContext语句查询和操作hive中的table。
另外我的配置如:http://www.aboutyun.com/forum.php?mod=viewthread&tid=21793&extra=
每当我运行sql操作是,spark的资源为什么极少消耗node1,node2,node3中的内存,反而master很容易被消耗完。

master_jps

master_jps

node1_jps

node1_jps

node2_jps

node2_jps

master内存耗尽

master内存耗尽






已有(1)人评论

跳转到指定楼层
starrycheng 发表于 2017-5-23 20:08:40
运行的用户应该不对。所以导致一些进程看不到。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条