大数据培训课程数据清洗案例实操-简单解析版

发布时间:2020年09月22日作者:atguigu浏览次数:637

数据清洗(ETL)

在运行核心业务MapReduce程序之前,往往要先对数据进行清洗,清理掉不符合用户要求的数据。清理的过程往往只需要运行Mapper程序,不需要运行Reduce程序。大数据培训

数据清洗案例实操-简单解析版

1.需求

去除日志中字段长度小于等于11的日志。

(1)输入数据

web.log

(2)期望输出数据

每行字段长度都大于11。

2.需求分析

       需要在Map阶段对输入的数据根据规则进行过滤清洗。大数据培训

3.实现代码

(1)编写LogMapper类

package com.atguigu.mapreduce.weblog; import java.io.IOException; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.NullWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Mapper;   public class LogMapper extends Mapper<LongWritable, Text, Text, NullWritable>{     Text k = new Text();     @Override   protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {             // 1 获取1行数据       String line = value.toString();             // 2 解析日志       boolean result = parseLog(line,context);             // 3 日志不合法退出       if (!result) {          return;       }             // 4 设置key       k.set(line);             // 5 写出数据       context.write(k, NullWritable.get());   }     // 2 解析日志   private boolean parseLog(String line, Context context) {         // 1 截取       String[] fields = line.split(” “);             // 2 日志长度大于11的为合法       if (fields.length > 11) {            // 系统计数器          context.getCounter(“map”, “true”).increment(1);          return true;       }else {          context.getCounter(“map”, “false”).increment(1);          return false;       }   } }
大数据培训课程

(2)编写LogDriver类

package com.atguigu.mapreduce.weblog; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.NullWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;   public class LogDriver {     public static void main(String[] args) throws Exception {   // 输入输出路径需要根据自己电脑上实际的输入输出路径设置         args = new String[] { “e:/input/inputlog”, “e:/output1” };         // 1 获取job信息       Configuration conf = new Configuration();       Job job = Job.getInstance(conf);         // 2 加载jar包       job.setJarByClass(LogDriver.class);         // 3 关联map       job.setMapperClass(LogMapper.class);         // 4 设置最终输出类型       job.setOutputKeyClass(Text.class);       job.setOutputValueClass(NullWritable.class);         // 设置reducetask个数为0       job.setNumReduceTasks(0);         // 5 设置输入和输出路径       FileInputFormat.setInputPaths(job, new Path(args[0]));       FileOutputFormat.setOutputPath(job, new Path(args[1]));         // 6 提交       job.waitForCompletion(true);   } }
大数据培训课程

想要了解跟多关于大数据培训课程内容欢迎关注尚硅谷大数据培训,尚硅谷除了这些技术文章外还有免费的高质量大数据培训课程视频供广大学员下载学习


上一篇:
下一篇:
相关课程

java培训 大数据培训 前端培训

关于尚硅谷
教育理念
名师团队
学员心声
资源下载
视频下载
资料下载
工具下载
加入我们
招聘岗位
岗位介绍
招贤纳师
联系我们
全国统一咨询电话:010-56253825
地址:北京市昌平区宏福科技园2号楼3层(北京校区)

深圳市宝安区西部硅谷大厦B座C区一层(深圳校区)

上海市松江区谷阳北路166号大江商厦3层(上海校区)

武汉市东湖高新开发区东湖网谷(武汉校区)

西安市雁塔区和发智能大厦B座3层(西安校区)

成都市成华区北辰星拱青创园(成都校区)