spark集群如何查看运行日志
问题导读1.spark编程中print内容,在控制台是否能看到?2.输出的日志有哪两种?3.如何才能看到spark运行日志?
比如,Spark应用程序代码如下: defseq(a: Int, b: Int): Int = { println("seq: " + a + "\t "+ b) math.max(a, b) }
defcomb(a: Int, b: Int): Int = { println("comb: " + a + "\t "+ b) a + b}
vardata11= sc.parallelize(List((1, 3), (1, 2), (1, 4), (2, 3))) data11.aggregateByKey(1)(seq, comb).collect
我要查看println的日志的方法:进入WEBUI页面:http://192.168.180.156:8085选择相关的应用程序,在页面点击表格中Running Applications 的ApplicationID:app-20160520200716-0023,这时候你可以进入到Spark作业监控的WEB UI界面,比如http://192.168.180.156:8085/app/?appId=app-20160520200716-0023在页面中,输出的日志有sterr和stdout两种,在stdout可以查看程序中输出的内容。如果你在程序中使用了println(....)输出语句,这些信息会在stdout文件里面显示;其余的Spark运行日志会在stderr文件里面显示。也可以直接进行日志文件进行查看,如:/home/huangmeiling/lib/spark-1.5.1/work/app-20160520200716-0023/0/stdout/home/huangmeiling/lib/spark-1.5.1/work/app-20160520200716-0023/0/stderr实例如下:
点击:stdout
日志文件:
出处:
http://blog.csdn.net/sunbow0
页:
[1]