分享

Spark应用--日志处理实验之MapReduce方法

问题导读:
1、如何使用Spark处理日志数据?
2、日志数据都有什么不同之处?




附录:实验代码下载
1:创建日志格式处理类KPI
  1. package hadoop2.logs;
  2. import java.text.ParseException;
  3. import java.text.SimpleDateFormat;
  4. import java.util.Date;
  5. import java.util.HashSet;
  6. import java.util.Locale;
  7. import java.util.Set;
  8. /*
  9. * KPI Object
  10. */
  11. public class KPI {
  12.         private String remote_addr;// 记录客户端的ip地址
  13.         private String remote_user;// 记录客户端用户名称,忽略属性"-"
  14.         private String time_local;// 记录访问时间与时区
  15.         private String request;// 记录请求的url与http协议
  16.         private String status;// 记录请求状态;成功是200
  17.         private String body_bytes_sent;// 记录发送给客户端文件主体内容大小
  18.         private String http_referer;// 用来记录从那个页面链接访问过来的
  19.         private String http_user_agent;// 记录客户浏览器的相关信息
  20.         private boolean valid = true;// 判断数据是否合法
  21.         private static KPI parser(String line) {
  22.                 // System.out.println(line);
  23.                 KPI kpi = new KPI();
  24.                 String[] arr = line.split(" ");
  25.                 if (arr.length > 11) {
  26.                         kpi.setRemote_addr(arr[0]);
  27.                         kpi.setRemote_user(arr[1]);
  28.                         kpi.setTime_local(arr[3].substring(1));
  29.                         kpi.setRequest(arr[6]);
  30.                         kpi.setStatus(arr[8]);
  31.                         kpi.setBody_bytes_sent(arr[9]);
  32.                         kpi.setHttp_referer(arr[10]);
  33.                         if (arr.length > 12) {
  34.                                 kpi.setHttp_user_agent(arr[11] + " " + arr[12]);
  35.                         } else {
  36.                                 kpi.setHttp_user_agent(arr[11]);
  37.                         }
  38.                         if (Integer.parseInt(kpi.getStatus()) >= 400) {// 大于400,HTTP错误
  39.                                 kpi.setValid(false);
  40.                         }
  41.                 } else {
  42.                         kpi.setValid(false);
  43.                 }
  44.                 return kpi;
  45.         }
  46.         /**
  47.          * 按page的pv分类
  48.          */
  49.         public static KPI filterPVs(String line) {
  50.                 return parser(line);
  51.                 // KPI kpi = parser(line);
  52.                 // Set<String> pages = new HashSet<String>();
  53.                 // pages.add("/about");
  54.                 // pages.add("/black-ip-list/");
  55.                 // pages.add("/cassandra-clustor/");
  56.                 // pages.add("/finance-rhive-repurchase/");
  57.                 // pages.add("/hadoop-family-roadmap/");
  58.                 // pages.add("/hadoop-hive-intro/");
  59.                 // pages.add("/hadoop-zookeeper-intro/");
  60.                 // pages.add("/hadoop-mahout-roadmap/");
  61.                 //
  62.                 // if (!pages.contains(kpi.getRequest())) {
  63.                 // kpi.setValid(false);
  64.                 // }
  65.                 // return kpi;
  66.         }
  67.         /**
  68.          * 按page的独立ip分类
  69.          */
  70.         public static KPI filterIPs(String line) {
  71.                 return parser(line);
  72.                 // KPI kpi = parser(line);
  73.                 // Set<String> pages = new HashSet<String>();
  74.                 // pages.add("/about");
  75.                 // pages.add("/black-ip-list/");
  76.                 // pages.add("/cassandra-clustor/");
  77.                 // pages.add("/finance-rhive-repurchase/");
  78.                 // pages.add("/hadoop-family-roadmap/");
  79.                 // pages.add("/hadoop-hive-intro/");
  80.                 // pages.add("/hadoop-zookeeper-intro/");
  81.                 // pages.add("/hadoop-mahout-roadmap/");
  82.                 //
  83.                 // if (!pages.contains(kpi.getRequest())) {
  84.                 // kpi.setValid(false);
  85.                 // }
  86.                 //
  87.                 // return kpi;
  88.         }
  89.         /**
  90.          * PV按浏览器分类
  91.          */
  92.         public static KPI filterBroswer(String line) {
  93.                 return parser(line);
  94.         }
  95.         /**
  96.          * PV按小时分类
  97.          */
  98.         public static KPI filterTime(String line) {
  99.                 return parser(line);
  100.         }
  101.         /**
  102.          * PV按访问域名分类
  103.          */
  104.         public static KPI filterDomain(String line) {
  105.                 return parser(line);
  106.         }
  107.         @Override
  108.         public String toString() {
  109.                 StringBuilder sb = new StringBuilder();
  110.                 sb.append("valid:" + this.valid);
  111.                 sb.append("\nremote_addr:" + this.remote_addr);
  112.                 sb.append("\nremote_user:" + this.remote_user);
  113.                 sb.append("\ntime_local:" + this.time_local);
  114.                 sb.append("\nrequest:" + this.request);
  115.                 sb.append("\nstatus:" + this.status);
  116.                 sb.append("\nbody_bytes_sent:" + this.body_bytes_sent);
  117.                 sb.append("\nhttp_referer:" + this.http_referer);
  118.                 sb.append("\nhttp_user_agent:" + this.http_user_agent);
  119.                 return sb.toString();
  120.         }
  121.         public String getRemote_addr() {
  122.                 return remote_addr;
  123.         }
  124.         public void setRemote_addr(String remote_addr) {
  125.                 this.remote_addr = remote_addr;
  126.         }
  127.         public String getRemote_user() {
  128.                 return remote_user;
  129.         }
  130.         public void setRemote_user(String remote_user) {
  131.                 this.remote_user = remote_user;
  132.         }
  133.         public String getTime_local() {
  134.                 return time_local;
  135.         }
  136.         public Date getTime_local_Date() throws ParseException {
  137.                 SimpleDateFormat df = new SimpleDateFormat("dd/MMM/yyyy:HH:mm:ss",
  138.                                 Locale.US);
  139.                 return df.parse(this.time_local);
  140.         }
  141.         public String getTime_local_Date_hour() throws ParseException {
  142.                 SimpleDateFormat df = new SimpleDateFormat("yyyyMMddHH");
  143.                 return df.format(this.getTime_local_Date());
  144.         }
  145.         public void setTime_local(String time_local) {
  146.                 this.time_local = time_local;
  147.         }
  148.         public String getRequest() {
  149.                 return request;
  150.         }
  151.         public String getRequest_domain() {
  152.                 // String str = this.request.replace(""", "").replace("http://", "")
  153.                 // .replace("https://", "");
  154.                 // return str.lastIndexOf("/") > 0 ? str.substring(0, str.lastIndexOf("/")) : "/";
  155.                 String rtnString="";               
  156.                 String[] request_domain = request.split("/");
  157.                 if (request_domain.length > 3) {
  158.                         for (int i = 0; i < 3; i++) {
  159.                                 rtnString= rtnString + request_domain[i]+"/" ;
  160.                         }
  161.                 } else {
  162.                         for (int i = 0; i < request_domain.length; i++) {
  163.                                 rtnString= request.lastIndexOf("/") > 0 ? request.substring(0, request.lastIndexOf("/")) +"/" : "/";
  164.                         }
  165.                 }
  166.                
  167.                 return rtnString;
  168.                 // string value = "192.168.128.33";
  169.                 // string[] names = value.split("\\.");
  170.                 // for (int i = 0; i < names.length; i++) {
  171.                 // system.out.println(names[i]);
  172.         }
  173.         public void setRequest(String request) {
  174.                 this.request = request;
  175.         }
  176.         public String getStatus() {
  177.                 return status;
  178.         }
  179.         public void setStatus(String status) {
  180.                 this.status = status;
  181.         }
  182.         public String getBody_bytes_sent() {
  183.                 return body_bytes_sent;
  184.         }
  185.         public void setBody_bytes_sent(String body_bytes_sent) {
  186.                 this.body_bytes_sent = body_bytes_sent;
  187.         }
  188.         public String getHttp_referer() {
  189.                 return http_referer;
  190.         }
  191.         public String getHttp_referer_domain() {
  192.                 if (http_referer.length() < 8) {
  193.                         return http_referer;
  194.                 }
  195.                 String str = this.http_referer.replace(""", "").replace("http://", "")
  196.                                 .replace("https://", "");
  197.                 return str.indexOf("/") > 0 ? str.substring(0, str.indexOf("/")) : str;
  198.         }
  199.         public void setHttp_referer(String http_referer) {
  200.                 this.http_referer = http_referer;
  201.         }
  202.         public String getHttp_user_agent() {
  203.                 return http_user_agent;
  204.         }
  205.         public void setHttp_user_agent(String http_user_agent) {
  206.                 this.http_user_agent = http_user_agent;
  207.         }
  208.         public boolean isValid() {
  209.                 return valid;
  210.         }
  211.         public void setValid(boolean valid) {
  212.                 this.valid = valid;
  213.         }
  214.         public static void main(String args[]) {
  215.                 String line = "222.68.172.190 - - [18/Sep/2013:06:49:57 +0000] "GET /stru.zip HTTP/1.1" 200 19939 "http://www.angularjs.cn/A00n" "Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/29.0.1547.66 Safari/537.36"";
  216.                 System.out.println(line);
  217.                 KPI kpi = new KPI();
  218.                 String[] arr = line.split(" ");
  219.                 kpi.setRemote_addr(arr[0]);
  220.                 kpi.setRemote_user(arr[1]);
  221.                 kpi.setTime_local(arr[3].substring(1));
  222.                 kpi.setRequest(arr[6]);
  223.                 kpi.setStatus(arr[8]);
  224.                 kpi.setBody_bytes_sent(arr[9]);
  225.                 kpi.setHttp_referer(arr[10]);
  226.                 kpi.setHttp_user_agent(arr[11] + " " + arr[12]);
  227.                 // System.out.println(kpi);
  228.                  System.out.println(kpi.getRequest_domain());
  229.                 try {
  230.                         SimpleDateFormat df = new SimpleDateFormat("yyyy.MM.dd:HH:mm:ss",
  231.                                         Locale.US);
  232.                         System.out.println(df.format(kpi.getTime_local_Date()));
  233.                         System.out.println(kpi.getTime_local_Date_hour());
  234.                         System.out.println(kpi.getHttp_referer_domain());
  235.                 } catch (ParseException e) {
  236.                         e.printStackTrace();
  237.                 }
  238.         }
  239. }
复制代码


2:统计(所有日志)独立 ip 数目,即不同 ip 的总数
下面代码输出了独立IP的访问次数,同时通过一个reduce计数器ReportTest.TotalIP来得到不同IP的总数。由于例程中combine和reduce采用同一方法,所以在统计IP 的总数的时候,需要取消combine过程,不然计数器将是combine过程计数和reduce过程计数过程之和。当然如果combine和reduce用不同的方法,那就不必取消combine过程了。

  1. package hadoop2.logs;
  2. import java.io.IOException;
  3. import org.apache.hadoop.conf.Configuration;
  4. import org.apache.hadoop.fs.Path;
  5. import org.apache.hadoop.io.IntWritable;
  6. import org.apache.hadoop.io.Text;
  7. import org.apache.hadoop.mapreduce.Job;
  8. import org.apache.hadoop.mapreduce.Mapper;
  9. import org.apache.hadoop.mapreduce.Reducer;
  10. import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
  11. import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
  12. import org.apache.hadoop.util.GenericOptionsParser;
  13. public class KPIIP {
  14.        
  15.         static enum ReportTest{
  16.                 TotalIP
  17.         }
  18.         public static class KPIIPMapper extends
  19.                         Mapper<Object, Text, Text, IntWritable> {
  20.                 private final static IntWritable one = new IntWritable(1);
  21.                 private Text word = new Text();
  22.                 @Override
  23.                 public void map(Object key, Text value, Context context)
  24.                                 throws IOException, InterruptedException {
  25.                         KPI kpi = KPI.filterPVs(value.toString());
  26.                         word.set(kpi.getRemote_addr());
  27.                         context.write(word, one);
  28.                 }
  29.         }
  30.         public static class KPIIPReducer extends
  31.                         Reducer<Text, IntWritable, Text, IntWritable> {
  32.                 private IntWritable result = new IntWritable();
  33.                 @Override
  34.                 public void reduce(Text key, Iterable<IntWritable> values,
  35.                                 Context context) throws IOException, InterruptedException {
  36.                         int sum = 0;
  37.                         for (IntWritable val : values) {
  38.                                 sum += val.get();
  39.                         }
  40.                         result.set(sum);
  41.                         context.getCounter(ReportTest.TotalIP).increment(1);
  42.                         context.write(key, result);
  43.                 }
  44.         }
  45.         public static void main(String[] args) throws Exception {
  46.                 Configuration conf = new Configuration();
  47.                 String[] otherArgs = new GenericOptionsParser(conf, args)
  48.                                 .getRemainingArgs();
  49.                 if (otherArgs.length != 2) {
  50.                         System.err.println("Usage: KPIIP <in> <out>");
  51.                         System.exit(2);
  52.                 }
  53.                 Job job = new Job(conf, "KPIIP");
  54.                 job.setJarByClass(KPIIP.class);
  55.                 job.setMapperClass(KPIIPMapper.class);
  56.                 //job.setCombinerClass(KPIIPReducer.class);
  57.                 job.setReducerClass(KPIIPReducer.class);
  58.                 job.setOutputKeyClass(Text.class);
  59.                 job.setOutputValueClass(IntWritable.class);
  60.                 FileInputFormat.addInputPath(job, new Path(otherArgs[0]));
  61.                 FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));
  62.                 System.exit(job.waitForCompletion(true) ? 0 : 1);
  63.         }
  64. }
复制代码




3:统计(所有日志)每个子目录访问次数
对于日志来说,客户端的访问还有很多种形式,有可能是点击的、有可能是链接等等,日志中记录下来的访问请求要根据需要进行处理来满足分析的需求,可以通过编写KPI.filterPVs方法来达到过滤的目的,用KPI.getRequest_domain来格式化要分析的用户请求数据,最终通过mapreduce来完成分析之目的。

  1. package hadoop2.logs;
  2. import java.io.IOException;
  3. import org.apache.hadoop.conf.Configuration;
  4. import org.apache.hadoop.fs.Path;
  5. import org.apache.hadoop.io.IntWritable;
  6. import org.apache.hadoop.io.Text;
  7. import org.apache.hadoop.mapreduce.Job;
  8. import org.apache.hadoop.mapreduce.Mapper;
  9. import org.apache.hadoop.mapreduce.Reducer;
  10. import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
  11. import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
  12. import org.apache.hadoop.util.GenericOptionsParser;
  13. public class KPIPV {
  14.         public static class KPIPVMapper extends
  15.                         Mapper<Object, Text, Text, IntWritable> {
  16.                 private final static IntWritable one = new IntWritable(1);
  17.                 private Text word = new Text();
  18.                 @Override
  19.                 public void map(Object key, Text value, Context context)
  20.                                 throws IOException, InterruptedException {
  21.                         KPI kpi = KPI.filterPVs(value.toString());
  22.                         word.set(kpi.getRequest_domain());
  23.                         context.write(word, one);
  24.                 }
  25.         }
  26.         public static class KPIPVReducer extends
  27.                         Reducer<Text, IntWritable, Text, IntWritable> {
  28.                 private IntWritable result = new IntWritable();
  29.                 @Override
  30.                 public void reduce(Text key, Iterable<IntWritable> values,
  31.                                 Context context) throws IOException, InterruptedException {
  32.                         int sum = 0;
  33.                         for (IntWritable val : values) {
  34.                                 sum += val.get();
  35.                         }
  36.                         result.set(sum);
  37.                         context.write(key, result);
  38.                 }
  39.         }
  40.         public static void main(String[] args) throws Exception {
  41.                 Configuration conf = new Configuration();
  42.                 String[] otherArgs = new GenericOptionsParser(conf, args)
  43.                                 .getRemainingArgs();
  44.                 if (otherArgs.length != 2) {
  45.                         System.err.println("Usage: KPIPV <in> <out>");
  46.                         System.exit(2);
  47.                 }
  48.                 Job job = new Job(conf, "KPIPV");
  49.                 job.setJarByClass(KPIPV.class);
  50.                 job.setMapperClass(KPIPVMapper.class);
  51.                 job.setCombinerClass(KPIPVReducer.class);
  52.                 job.setReducerClass(KPIPVReducer.class);
  53.                 job.setOutputKeyClass(Text.class);
  54.                 job.setOutputValueClass(IntWritable.class);
  55.                 FileInputFormat.addInputPath(job, new Path(otherArgs[0]));
  56.                 FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));
  57.                 System.exit(job.waitForCompletion(true) ? 0 : 1);
  58.         }
  59. }
复制代码


4:统计(所有日志)每个 ip,访问的子目录次数和上面的例子一样,只是map的key中多了一个IP信息。

  1. package hadoop2.logs;
  2. import java.io.IOException;
  3. import org.apache.hadoop.conf.Configuration;
  4. import org.apache.hadoop.fs.Path;
  5. import org.apache.hadoop.io.IntWritable;
  6. import org.apache.hadoop.io.Text;
  7. import org.apache.hadoop.mapreduce.Job;
  8. import org.apache.hadoop.mapreduce.Mapper;
  9. import org.apache.hadoop.mapreduce.Reducer;
  10. import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
  11. import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
  12. import org.apache.hadoop.util.GenericOptionsParser;
  13. public class KPI3 {
  14.         public static class KPI3Mapper extends
  15.                         Mapper<Object, Text, Text, IntWritable> {
  16.                 private final static IntWritable one = new IntWritable(1);
  17.                 private Text word = new Text();
  18.                 @Override
  19.                 public void map(Object key, Text value, Context context)
  20.                                 throws IOException, InterruptedException {
  21.                         KPI kpi = KPI.filterPVs(value.toString());
  22.                         word.set(kpi.getRemote_addr() + " " + kpi.getRequest_domain());
  23.                         context.write(word, one);
  24.                 }
  25.         }
  26.         public static class KPI3Reducer extends
  27.                         Reducer<Text, IntWritable, Text, IntWritable> {
  28.                 private IntWritable result = new IntWritable();
  29.                 @Override
  30.                 public void reduce(Text key, Iterable<IntWritable> values,
  31.                                 Context context) throws IOException, InterruptedException {
  32.                         int sum = 0;
  33.                         for (IntWritable val : values) {
  34.                                 sum += val.get();
  35.                         }
  36.                         result.set(sum);
  37.                         context.write(key, result);
  38.                 }
  39.         }
  40.         public static void main(String[] args) throws Exception {
  41.                 Configuration conf = new Configuration();
  42.                 String[] otherArgs = new GenericOptionsParser(conf, args)
  43.                                 .getRemainingArgs();
  44.                 if (otherArgs.length != 2) {
  45.                         System.err.println("Usage: KPI3 <in> <out>");
  46.                         System.exit(2);
  47.                 }
  48.                 Job job = new Job(conf, "KPI3");
  49.                 job.setJarByClass(KPI3.class);
  50.                 job.setMapperClass(KPI3Mapper.class);
  51.                 job.setCombinerClass(KPI3Reducer.class);
  52.                 job.setReducerClass(KPI3Reducer.class);
  53.                 job.setOutputKeyClass(Text.class);
  54.                 job.setOutputValueClass(IntWritable.class);
  55.                 FileInputFormat.addInputPath(job, new Path(otherArgs[0]));
  56.                 FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));
  57.                 System.exit(job.waitForCompletion(true) ? 0 : 1);
  58.         }
  59. }
复制代码






已有(1)人评论

跳转到指定楼层
梦回三国 发表于 2014-11-6 10:11:20
这篇文章应该放到hadoop中吧,怎么在Spark中呢??
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条