xuanxufeng 发表于 2016-9-9 15:40:25

spark集群如何查看运行日志

问题导读
1.spark编程中print内容,在控制台是否能看到?2.输出的日志有哪两种?3.如何才能看到spark运行日志?

比如,Spark应用程序代码如下: defseq(a: Int, b: Int): Int = {   println("seq: " + a + "\t "+ b)   math.max(a, b) }
defcomb(a: Int, b: Int): Int = {   println("comb: " + a + "\t "+ b)   a + b}

   vardata11= sc.parallelize(List((1, 3), (1, 2), (1, 4), (2, 3)))    data11.aggregateByKey(1)(seq, comb).collect

我要查看println的日志的方法:进入WEBUI页面:http://192.168.180.156:8085选择相关的应用程序,在页面点击表格中Running Applications 的ApplicationID:app-20160520200716-0023,这时候你可以进入到Spark作业监控的WEB UI界面,比如http://192.168.180.156:8085/app/?appId=app-20160520200716-0023在页面中,输出的日志有sterr和stdout两种,在stdout可以查看程序中输出的内容。如果你在程序中使用了println(....)输出语句,这些信息会在stdout文件里面显示;其余的Spark运行日志会在stderr文件里面显示。也可以直接进行日志文件进行查看,如:/home/huangmeiling/lib/spark-1.5.1/work/app-20160520200716-0023/0/stdout/home/huangmeiling/lib/spark-1.5.1/work/app-20160520200716-0023/0/stderr实例如下:
点击:stdout

日志文件:

出处:
http://blog.csdn.net/sunbow0
页: [1]
查看完整版本: spark集群如何查看运行日志