spark 开窗函数row_number()

本文通过实战演示了如何使用RowNumber窗口函数实现分组TopN的功能,并提供了具体的数据集及查询示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  • 开窗函数row_number()是按照某个字段分组,然后取另外一个字段排序的前几个值的函数,相当于分组topN。
object RowNumberWindowFunction {
    //开窗函数
    def main(args: Array[String]): Unit = {
        val spark = SparkSession.builder()
                .appName("RowNumberWindowFunction")
                .master("local[2]")
                .enableHiveSupport()
                .getOrCreate()
                
        val array = Array("1,Hadoop,12","6,Spark,6","3,Solr,15","3,HBase,8","6,Hive,16","6,TensorFlow,26")

        val rdd = spark.sparkContext.parallelize(array).map(_.split(",")).map{
            item =>
                Row(item(0), item(1), item(2).toInt)
        }

        val structType = new StructType(Array(
            StructField("id", StringType, true),
            StructField("name", StringType, true),
            StructField("age", IntegerType, true)
        ))

        val df = spark.createDataFrame(rdd, structType)
        df.show()

        df.createOrReplaceTempView("table")

        val top1 = spark.sql("select id, name, age from (select id, name, age,"+
                "row_number() over(partition by id order by age desc) top from table)t where top <= 1")
        top1.show()
        val top2 = spark.sql("select id, name, age from (select id, name, age,"+
                "row_number() over(partition by id order by age desc) top from table)t where top <= 2")
        top2.show()
        val top3 = spark.sql("select id, name, age from (select id, name, age,"+
                "row_number() over(partition by id order by age desc) top from table)t where top <= 3")
        top3.show()
    }
}
原始数据
+---+----------+---+
| id|      name|age|
+---+----------+---+
|  1|    Hadoop| 12|
|  6|     Spark|  6|
|  3|      Solr| 15|
|  3|     HBase|  8|
|  6|      Hive| 16|
|  6|TensorFlow| 26|
+---+----------+---+
top1
+---+----------+---+
| id|      name|age|
+---+----------+---+
|  3|      Solr| 15|
|  6|TensorFlow| 26|
|  1|    Hadoop| 12|
+---+----------+---+
top2
+---+----------+---+
| id|      name|age|
+---+----------+---+
|  3|      Solr| 15|
|  3|     HBase|  8|
|  6|TensorFlow| 26|
|  6|      Hive| 16|
|  1|    Hadoop| 12|
+---+----------+---+
top3
+---+----------+---+
| id|      name|age|
+---+----------+---+
|  3|      Solr| 15|
|  3|     HBase|  8|
|  6|TensorFlow| 26|
|  6|      Hive| 16|
|  6|     Spark|  6|
|  1|    Hadoop| 12|
+---+----------+---+
Spark开窗函数是一种用于对结果集进行聚合计算的函数开窗函数可以根据指定的分区和排序规则对结果集进行分组和排序,并计算每个分组或排序组内的聚合结果。 在Spark中,开窗函数可以使用`OVER`关键字来定义。`OVER`关键字后面可以跟着分区和排序规则,以及其他选项来改变聚合运算的窗口范围。 常见的开窗函数包括: - `COUNT`:计算符合条件的行数。 - `ROW_NUMBER`:为每一行分配一个唯一的行号。 - `RANK`:计算每一行在排序结果中的排名。 - `DENSE_RANK`:计算每一行在排序结果中的密集排名。 - `NTILE`:将结果集分成指定数量的组,并为每个组分配一个排名。 下面是一些使用Spark开窗函数的示例: ``` sparkSession.sql("select name, class, score, count(name) over(partition by class) name_count1 from score").show() sparkSession.sql("select name, class, score, count(name) over(partition by score) name_count2 from score").show() sparkSession.sql("select name, class, score, row_number() over(order by score) rank from score").show() sparkSession.sql("select name, class, score, rank() over(order by score) rank from score").show() sparkSession.sql("select name, class, score, dense_rank() over(order by score) rank from score").show() sparkSession.sql("select name, class, score, ntile(6) over(order by score) rank from score").show() ``` 以上示例展示了如何使用开窗函数进行分组计数、排序和排名操作。每个示例都使用了不同的开窗函数和不同的分区或排序规则来实现不同的聚合计算。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值