iis服务器助手广告广告
返回顶部
首页 > 资讯 > 后端开发 > Python >spark中使用groupByKey进行分组排序的示例代码
  • 357
分享到

spark中使用groupByKey进行分组排序的示例代码

spark使用groupByKey分组排序spark分组排序 2023-03-09 17:03:34 357人浏览 安东尼

Python 官方文档:入门教程 => 点击学习

摘要

任务需求:已知RDD[(query:String, item_id:String, imp:Int, clk:Int)],要求找到每个query对应的点击最多的前2个item_id,

任务需求:已知RDD[(query:String, item_id:String, imp:Int, clk:Int)],要求找到每个query对应的点击最多的前2个item_id,即:按照query分组,并按照clk降序排序,每组取前两个。

例如:

(连衣裙,1234,  22,  13)

(牛仔裤,2768,  34,  7)

(连衣裙,1673,45,  9)

(衬衣,3468, 67,  12)

(牛仔裤,2754, 68, 20)

(连衣裙,1976,93,  29)

希望得到:

(连衣裙,1976,93,  29)

(连衣裙,1234,  22,  13)

(牛仔裤,2754, 68, 20)

(牛仔裤,2768,  34,  7)

(衬衣,3468, 67,  12)

先看一个错误的版本:

val list = List(("连衣裙",1234, 22, 13),("牛仔裤",2768, 34, 7),("连衣裙",1673,45, 9)
    ,("衬衣",3468,67, 12),("牛仔裤",2754, 68, 20),("连衣裙",1976,93, 29))
val rdd = ss.sparkContext.parallelize(list)
 
val topItem_set= rdd.map(ele => (ele._1, (ele._2, ele._3, ele._4))).groupByKey()
  .map(line => {
        val topItem = line._2.toArray.sortBy(_._3)(Ordering[Int].reverse).take(2)
        topItem.mkString(",")
        topItem.map(x => {(line._1, x._1, x._2, x._3)})
  })
topItem_set.foreach(println)
println()
topItem_set.map(_.mkString).foreach(println)

我们把query作为key,其余放到一起,groupByKey后(map之前),类型为:RDD[(String, Iterable[(String, Int, Int)])],根据query分组再map,line._2.toArray把Iterable转为Array,sortBy(_._3)是按最后一个Int即clk排序,(Ordering[Int].reverse)表示从大到小(sortBy默认从小到大,注意这里的sortBy是Array的成员函数而不是rdd的sortBy,用法比较不同),take(2)是取前2个,然后返回(query,  item_id)。跑一下上面的过程。

返回:

[LScala.Tuple4;@2b672e4
[Lscala.Tuple4;@52e50126
[Lscala.Tuple4;@1362b124
 
(连衣裙,1976,93,29)(连衣裙,1234,22,13)
(衬衣,3468,67,12)
(牛仔裤,2754,68,20)(牛仔裤,2768,34,7)

上面3行是直接打印跟预期稍有差别,同一个key下的top两个元素是作为一个整体,但已经很接近目标,如果希望拆分,需要使用flatMap:

val topItem_set= rdd.map(ele => (ele._1, (ele._2, ele._3, ele._4))).groupByKey()
  .flatMap(line => {
        val topItem = line._2.toArray.sortBy(_._3)(Ordering[Int].reverse).take(2)
        topItem.mkString(",")
        topItem.map(x => {(line._1, x._1, x._2, x._3)})
  })

为什么呢?GroupByKey后,类型为RDD[(String, Iterable[(String, Int, Int)])],如果用map,那每一个key对应的一个Iterable变量,相当于一条数据,map后的结果自然还是一条。但flatMap,相当于map+flat操作,这才是我们真正的需要的形式。

任务进阶:要求找到每个query对应的点击最多的前2个item_id,当点击一样时,选曝光最少的,即:按照query分组,并优先按照clk降序排序,其次按照imp升序排序,每组取前两个。

例如:

(连衣裙,1234,  22,  13)

(牛仔裤,2768,  34,  7)

(连衣裙,1673,45,  9)

(衬衣,3468, 67,  12)

(牛仔裤,2754, 68, 20)

(连衣裙,1976,93,  29)

(牛仔裤,1232,  20, 7)

希望得到:

(连衣裙,1976,93,  29)

(连衣裙,1234,  22,  13)

(牛仔裤,2754, 68, 20)

(牛仔裤,1232,  20,  7)

(衬衣,2768,  34,  7)

注意,上面样本中牛仔裤有两个样本的点击都是7,但标红的样本曝光数是更小,所以应该入选top2,直接上代码吧:

val list2 = List(("连衣裙",1234, 22, 13),("牛仔裤",2768, 34, 7),("连衣裙",1673,45, 9)
    ,("衬衣",3468,67, 12),("牛仔裤",2754, 68, 20),("连衣裙",1976,93, 29),("牛仔裤",1232, 20, 7))
    val rdd2 = ss.sparkContext.parallelize(list2)
    rdd2.foreach(println)
    val topItem_set= rdd2.map(ele => (ele._1, (ele._2, ele._3, ele._4))).groupByKey()
      .flatMap(line => {
        val topItem = line._2.toArray.sortBy(x => (x._3, x._2))(Ordering.Tuple2(Ordering[Int].reverse, Ordering[Int])).take(2)
        topItem.map(x => {(line._1, x._1, x._2, x._3)})
      })
    topItem_set.foreach(println)

sortBy可以根据需要增加排序维度,参数按优先级排列,这个在日常使用较多。

到此这篇关于spark中使用groupByKey进行分组排序的文章就介绍到这了,更多相关spark使用groupByKey分组排序内容请搜索编程网以前的文章或继续浏览下面的相关文章希望大家以后多多支持编程网!

--结束END--

本文标题: spark中使用groupByKey进行分组排序的示例代码

本文链接: https://www.lsjlt.com/news/199166.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作