iis服务器助手广告
返回顶部
首页 > 资讯 > 精选 >如何解析spark-streaming中的socketTextStream
  • 834
分享到

如何解析spark-streaming中的socketTextStream

2023-06-02 19:06:35 834人浏览 安东尼
摘要

本篇文章为大家展示了如何解析spark-streaming中的SocketTextStream,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。package hgs.spark.stream

本篇文章为大家展示了如何解析spark-streaming中的SocketTextStream,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。

package hgs.spark.streamingimport org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.streaming.Secondsimport org.apache.spark.streaming.StreaminGContextimport org.apache.spark.storage.StorageLevelimport org.apache.spark.HashPartitionerobject SocketStreamingTest {  def main(args: Array[String]): Unit = {        val conf = new SparkConf();    conf.setMaster("local[2]").setAppName("SocketStreaming")    val context = new SparkContext(conf);    //要添加spark-streaming的依赖包,spark的Seconds    val streamContext  = new StreamingContext(context,Seconds(5));    val ds = streamContext.socketTextStream("192.168.6.129", 8888, StorageLevel.MEMORY_ONLY);    streamContext.checkpoint("d:\\chekpoint")    //val ds2 = ds.flatMap(_.split(" ")).map((_,1)).reduceByKey((x,y)=>(x+y))//这种方式只是对该批次数据进行处理,并没有累计上一个批次            //updateFunc: (Iterator[(K, Seq[V], Option[S])]) K:单词, Seq[V]该批次单词出现次数列表,Option:上一次计算的结果    val updateFunc=(iter:Iterator[(String,Seq[Int],Option[Int])])=>{      //iter.flatMap(it=>Some(it._2.sum+it._3.getOrElse(0)).map((it._1,_)))//方式一      //iter.flatMap{case(x,y,z)=>{Some(y.sum+z.getOrElse(0)).map((x,_))}}//方式二      iter.flatMap(it=>Some(it._1,(it._2.sum.toInt+it._3.getOrElse(0))))//方式三    }    val partitionner = new HashPartitioner(2)    //通过updateStatByKey来进行累加    val ds2 = ds.flatMap(_.split(" ")).map((_,1)).updateStateByKey(updateFunc, partitionner, true)    //打印    ds2.print()    streamContext.start()    streamContext.awaitTermination()  }}

上述内容就是如何解析spark-streaming中的socketTextStream,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注编程网精选频道。

--结束END--

本文标题: 如何解析spark-streaming中的socketTextStream

本文链接: https://www.lsjlt.com/news/231145.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • 如何解析spark-streaming中的socketTextStream
    本篇文章为大家展示了如何解析spark-streaming中的socketTextStream,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。package hgs.spark.stream...
    99+
    2023-06-02
  • 如何分析基于Spark Streaming Direct方式的WordCount
    这期内容当中小编将会给大家带来有关如何分析基于Spark Streaming Direct方式的WordCount,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。1.前提 a. flume 收集--》flu...
    99+
    2023-06-03
  • Spark Streaming+Spark SQL的数据倾斜示例分析
    这篇文章将为大家详细讲解有关Spark Streaming+Spark SQL的数据倾斜示例分析,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。1.现象 三台机器都有产生executor,每台...
    99+
    2023-06-03
  • flink和spark Streaming中Back Pressure的示例分析
    这篇文章将为大家详细讲解有关flink和spark Streaming中Back Pressure的示例分析,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。Spark Streaming的back pres...
    99+
    2023-06-19
  • 如何进行Spark Streaming框架在 5G 中的应用
    本篇文章给大家分享的是有关如何进行Spark Streaming框架在 5G 中的应用,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。这次想分享一下我们关于当前流处理引擎及其在 ...
    99+
    2023-06-19
  • 如何理解Spark Streaming的数据可靠性和一致性
    如何理解Spark Streaming的数据可靠性和一致性,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。眼下大数据领域最热门的词汇之一便是流计算了,其中最耀眼的项目无疑是来自S...
    99+
    2023-06-19
  • Spark Streaming及其在实时数据处理中的应用
    Spark Streaming是Apache Spark提供的一种实时流处理框架,可以对实时数据进行高效的处理和分析。它可以将数据流...
    99+
    2024-03-05
    Spark
  • 关于Spark Streaming感知kafka动态分区的问题该怎么理解
    关于Spark Streaming感知kafka动态分区的问题该怎么理解,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。小编主要是讲解Spark Streaming与kafk...
    99+
    2023-06-19
  • 如何使用Spark Streaming SQL基于时间窗口进行数据统计
    这篇文章主要介绍“如何使用Spark Streaming SQL基于时间窗口进行数据统计”,在日常操作中,相信很多人在如何使用Spark Streaming SQL基于时间窗口进行数据统计问题上存在疑惑,小编查阅了各式资料,整理出简单好用的...
    99+
    2023-06-19
  • 如何理解Spark中的核心概念RDD
    如何理解Spark中的核心概念RDD,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。RDD全称叫做弹性分布式数据集(Resilient Dist...
    99+
    2024-04-02
  • spark中的transform如何使用
    在Spark中,transform方法用于将RDD转换为其他类型的RDD。它接受一个函数作为参数,该函数将输入RDD的每个元素转换为...
    99+
    2024-04-02
  • 如何分析spark-mlib的线性回归
    如何分析spark-mlib的线性回归,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。import org.apache.spark.SparkConfimport...
    99+
    2023-06-02
  • 如何解析Apache Spark 统一内存管理模型
    今天就跟大家聊聊有关如何解析Apache Spark 统一内存管理模型,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。Apache Spark 统一内存管理模型详解下面将对 Spark...
    99+
    2023-06-02
  • 如何使用Spark分析云HBase的数据
    这篇文章将为大家详细讲解有关如何使用Spark分析云HBase的数据,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。1 云HBase查询分析的现状HBase原生API:HBase原生API适合基于row k...
    99+
    2023-06-02
  • 如何分析Spark in action on Kubernetes的存储
    今天就跟大家聊聊有关如何分析Spark in action on Kubernetes的存储,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。前言今天我们会讨论一个在大数据领域中最重要的...
    99+
    2023-06-04
  • 怎么进行Spark in action on Kubernetes - Spark Operator的原理解析
    怎么进行Spark in action on Kubernetes - Spark Operator的原理解析,很多新手对此不是很清楚,为了帮助大家解决这个难题,下面小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。前言...
    99+
    2023-06-02
  • Kubernetes中如何部署Spark
    小编给大家分享一下Kubernetes中如何部署Spark,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!Spark是新一代分布式内存计算框架,Apache开源的顶...
    99+
    2023-06-27
  • 如何实现Apache Hive 和Spark的对比分析
    本篇文章给大家分享的是有关如何实现Apache Hive 和Spark的对比分析,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。Hive和Spa...
    99+
    2024-04-02
  • 如何利用spark进行数据分析
    使用Spark进行数据分析可以遵循以下步骤: 准备数据:将数据加载到Spark中,可以使用Spark的DataFrame API...
    99+
    2024-04-02
  • Spark-Alchemy中HyperLogLog如何使用
    本篇文章给大家分享的是有关Spark-Alchemy中HyperLogLog如何使用,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。Reaggregation的挑战Reaggre...
    99+
    2023-06-19
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作