大数据培训课程Flink之wordcount

发布时间:2020年05月19日作者:atguigu浏览次数:829

批处理wordcount

def main(args: Array[String]): Unit = {

  //构造执行环境
 
val env: ExecutionEnvironment = ExecutionEnvironment.getExecutionEnvironment
 
//读取文件
 
val input = “file:///d:/temp/hello.txt”
 
val ds: DataSet[String] = env.readTextFile(input)
  // 其中flatMap 和Map 中  需要引入隐式转换
 
import org.apache.flink.api.scala.createTypeInformation
 
//经过groupby进行分组,sum进行聚合
 
val aggDs: AggregateDataSet[(String, Int)] = ds.flatMap(_.split(” “)).map((_, 1)).groupBy(0).sum(1)
  // 打印
 
aggDs.print()


}  

注意:Flink程序支持java 和 scala两种语言,本课程中以scala语言为主。

在引入包中,有java和scala两种包时注意要使用scala的包

流处理 wordcount

import org.apache.flink.api.java.utils.ParameterTool
import org.apache.flink.streaming.api.scala.{DataStream, StreamExecutionEnvironment}

object StreamWcApp {

  def main(args: Array[String]): Unit = {
    //从外部命令中获取参数
   
val tool: ParameterTool = ParameterTool.fromArgs(args)
    val host: String = tool.get(“host”)
    val port: Int = tool.get(“port”).toInt

    //创建流处理环境
   
val env: StreamExecutionEnvironment = StreamExecutionEnvironment.getExecutionEnvironment
   
//接收socket文本流
   
val textDstream: DataStream[String] = env.socketTextStream(host,port)
   // flatMap和Map需要引用的隐式转换
   
import org.apache.flink.api.scala._
  
//处理 分组并且sum聚合
   
val dStream: DataStream[(String, Int)] = textDstream.flatMap(_.split(” “)).filter(_.nonEmpty).map((_,1)).keyBy(0).sum(1)
   //打印
   
dStream.print()
   
    env.execute()
  }  

测试

在linux系统中用

 nc -lk  7777

进行发送测试

想要了解跟多关于大数据培训课程内容欢迎关注尚硅谷大数据培训,尚硅谷除了这些技术文章外还有免费的高质量大数据培训课程视频供广大学员下载学习


上一篇:
下一篇:
相关课程

java培训 大数据培训 前端培训

关于尚硅谷
教育理念
名师团队
学员心声
资源下载
视频下载
资料下载
工具下载
加入我们
招聘岗位
岗位介绍
招贤纳师
联系我们
全国统一咨询电话:010-56253825
地址:北京市昌平区宏福科技园2号楼3层(北京校区)

深圳市宝安区西部硅谷大厦B座C区一层(深圳校区)

上海市松江区谷阳北路166号大江商厦3层(上海校区)

武汉市东湖高新开发区东湖网谷(武汉校区)

西安市雁塔区和发智能大厦B座3层(西安校区)

成都市成华区北辰星拱青创园综合楼3层(成都校区)